Tuesday, December 24, 2013

Koninklijk eerherstel voor computerpionier Alan Turing

Beluister hier mijn radiobijdrage bij BNR nieuwsradio van dinsdag 24 december: Postuum gratie voor computerpionier en oorlogsheld Alan Turing.

Saturday, November 16, 2013

Mijn vertaalmachine en ik




Op 15 november verscheen bij uitgeverij De Wereld het boek Het beste idee van 2013
Voor dit boek schreef ik het onderstaande korte essay:

Zij spreekt alleen Pools. Ik spreek die taal op iets-beter-dan-kroegniveau. Schrijven is helaas andere koek. Tot voor kort was e-mailen of chatten in het Pools voor mij geen optie. Maar Google Translate heeft mijn wereld veranderd. Ik schrijf in het Engels. De vertaalmachine levert in een oogwenk een gratis vertaling. Daarin zitten veel fouten, die ik deels herken en corrigeer. Google Translate kent veel meer woorden dan ik, is veel beter in spelling en grammatica, maar leidt geen eigen leven, weet niets van de wereld, begrijpt niet wat hij vertaalt en maakt daarom onbegrijpelijke fouten.

Wanneer ik mijn kennis van de wereld en van het Pools combineer met het grote talige geheugen en de snelle rekenkracht van de vertaalmachine, kan ik bijna in realtime met mijn Poolse vriendin schrijven. Mijn vertaalmachine en ik verbazen haar keer op keer. Ziehier het oprukkende belang van de samenwerking tussen menselijke en kunstmatige intelligentie. We moeten af van het sciencefictionidee dat kunstmatige intelligentie menselijke intelligentie gaat overtreffen. Zoals een vliegtuig heel anders vliegt dan een vogel, zo is kunstmatige intelligentie iets heel anders dan menselijke intelligentie. De nieuwe uitdaging is om die twee vormen van intelligentie optimaal te laten samenwerken.

Het belang van die samenwerking speelt in de automatisering van vervoer een cruciale rol. Hoe meer automatisering, hoe veiliger de auto’s, vliegtuigen, treinen en schepen zijn geworden. De paradox van de automatisering is echter: hoe meer automatisering, hoe crucialer het ingrijpen door de mens wanneer de denkende machine toch de fout in gaat. En die kans is er altijd, vooral bij onverwachte omstandigheden.

In de luchtvaart is een reeks ongelukken precies te wijten aan de paradox van de automatisering: het automatische systeem maakt een fout, de menselijke piloot moet ingrijpen, maar begrijpt het systeem onvoldoende, met een ongeluk tot gevolg. Al te vaak vergeten we dat elk kunstmatig intelligent systeem is bedacht en geprogrammeerd door mensen. Daarmee is het een mens-machinesysteem. Software is mensenwerk. Software heeft een ideologie, kijk maar naar Facebook of Twitter.

Ik geloof dat de komende decennia een gouden tijd worden voor intelligente machines. Die machines maken de mens niet volledig overbodig, maar gaan in symbiose met mensen samenwerken. De mens blijft de spil van die samenwerking: door zijn begrip van de fysieke wereld en van emoties, door zijn creativiteit en zingeving. Het essentiële verschil tussen menselijke en kunstmatige intelligentie is de biologie. Eén ding zullen computers en robots nooit kunnen en dat is van de apen afstammen.

Tuesday, October 15, 2013

A Blow To Computer Security Research

Early this summer, a British court in London ordered computer security researchers to withdraw their scientific paper "Dismantling Megamos Security: Wirelessly Lockpicking a Vehicle Immobilizer," which was to be presented at the 22nd USENIX Security Symposium in August in Washington D.C.

The work presented in the paper was carried out in the Digital Security research group of professor Bart Jacobs of the Radboud University Nijmegen (Netherlands). Flavio Garcia, Roel Verdult and Baris Ege, the three authors of the paper, in 2012 discovered a serious weakness in the algorithm of a cryptography-based car immobilizer (an electronic security device that prevents the engine from running unless the correct key or token is presented) known under the name "Megamos Crypto." The research paper describes both the algorithm and the weakness within it.

The algorithm was created in the mid-1990s by Thales, a French multinational that designs and produces electrical systems. Thales licensed the algorithm to the Swiss firm EM Microelectronic to build it into a microprocessor. EM sold the microprocessor to Troy, MI-based Delphi Automotive, and Delphi manufactured and sold a complete immobilizer to the German car company Volkswagen, as well as to many other car manufacturers. Volkswagen says it has installed the immobilizer in millions of cars, particularly in vehicles in Volkswagen’s luxury car brands, including Porsche, Audi, Bentley, and Lamborghini.

Read the rest of my article on the website of the ACM (Association for Computing Machinery)

Web-links 
London-verdict in the ‘Megamos Crypto’ case: http://www.bailii.org/ew/cases/EWHC/Ch/2013/1832.html
Video of the presentation by Roel Verdult at USENIX 2013: https://www.usenix.org/conference/usenixsecurity13/dismantling-megamos-crypto-wirelessly-lockpicking-vehicle-immobilizer
Detailed analysis of the English High court judgement in the ‘Megamos Crypto’ case by Robert Carolina and Kenneth Paterson: http://www.isg.rhul.ac.uk/~kp/Carolina-Paterson-Megamos-comment-20130828.pdf
Volkswagen Code of Conduct: http://www.volkswagenag.com/content/vwcorp/info_center/en/publications/2010/07/Verhaltensgrundsaetze_des_Volkswagen_Konzerns.bin.html/binarystorageitem/file/The+Volkswagen+Group+Code+of+Conduct.pdf

Tuesday, October 1, 2013

Back to the Future of Computer Science

Panel discussion during the first Heidelberg Laureate Forum (Copyright: HLFF)

During the last week of September, 200 young researchers from all over the world met with 40 laureates of the most prestigious awards in computer science and mathematics at the first Heidelberg Laureate Forum (HLF) in Heidelberg, Germany.

The HLF was modeled after the famous Lindau Nobel Laureate meetings, held annually since 1951 as a way for young researchers to meet with Nobel laureates in physics, chemistry, medicine, and economics.

HLF chair Klaus Tschira said his great inspiration to initiate the Forum was that, "Unfortunately, there is not a Nobel Prize for mathematics and for computer science, but, young researchers in these fields would likewise benefit just as much from early contact with influential members of their fields."

Read the rest of my article on the website of the ACM (Association for Computing Machinery).


Web-links
Heidelberg Laureate Forum, including videos of the lectures: www.heidelberg-laureate-forum.org
HLF-blog: www.scilogs.com/hlf/
Turing Award: http://amturing.acm.org
Fields Medal: www.mathunion.org/general/prizes/fields/details/
Abel Prize: www.abelprize.no
Rolf Nevanlinna Prize: www.mathunion.org/general/prizes/nevanlinna/details/

Thursday, September 26, 2013

What is computer science?

“Computer science is no more about computers than astronomy is about telescopes.” 

Edsger Dijkstra, Turing Award (1972), the highest award in computer science. 


Because computer science is such a new scientific field, as compared to sciences such as physics, chemistry, biology and mathematics, many people wonder what computer science is about. Here I have tried to describe briefly what computer science is all about:

Computer science is the science of information processes

Whether it’s about administrative, organizational, social, or even physical or biological processes, computer scientists can model them as information processes. Computer science is a unique interplay between science and engineering, between scientific discoveries and the instruments that the field develops.

We can see computer science as a science that consists of three steps. The first step is the development of the scientific theory. At this level computer scientists try to find answers to fundamental questions such as: What is information? What is computable? What is intelligence? Are there general information laws? Are there general frameworks to describe and measure the impact of programs? Can we find ways to solve problems that even the fastest computers still can not handle?

Modeling is the second step in the methodology of computer science. Algorithms, the computational recipes for the computer, play a crucial role in this second step. Developing efficient algorithms is one of the biggest challenges for computer scientists. An efficient algorithm solves a computational problem in a realistic time period, with realistic memory use, processing speed and power consumption.

In everyday applications algorithms can only be successful if they are embedded in a user-friendly design. Design is therefore the third step in computer science. This third step leads immediately to new questions for the theory of computer science: How can we build complex systems simply? How can we ensure that they work correctly and securely? How can we maintain them over time?

Friday, August 30, 2013

Wat is informatica?

Voor de meeste mensen is informatica "iets met computers". Maar zoals de Nederlandse informaticus Edsger Dijkstra ooit zei: "Informatica gaat net zo min over computers als sterrenkunde over telescopen".

Wat is informatica dan wel?

Informatica is de wetenschap van de informatieprocessen. Of het nu gaat om administratieve, organisatorische, sociale of zelfs natuurkundige of biologische processen, informatici kunnen ze modelleren als informatieprocessen. Informatica is een uniek samenspel tussen wetenschap en ingenieurskunde, tussen wetenschappelijke ontdekkingen en het instrumentarium dat het vakgebied ontwikkelt. Zo heeft de ontwikkeling van het internet geheel nieuwe fundamentele vragen binnen de informatica opgeroepen.

We kunnen de informatica zien als een wetenschap die uit een drietrapsraket bestaat. De eerste trap is de ontwikkeling van de wetenschappelijke theorie. Op dit niveau proberen informatici antwoorden te vinden op fundamentele vragen als: Wat is informatie? Wat is berekenbaar? Wat is intelligentie? Zijn er algemene informatiewetten? Zijn er algemene kaders om het effect van programma’s te beschrijven en te meten? Kunnen we manieren vinden om problemen op te lossen die zelfs de snelste computers van nu nog niet aankunnen?

Modellering is de tweede trap in de methodologie van de informatica. Bij modellering spelen algoritmen een cruciale rol. Algoritmen zijn de rekenrecepten voor de computer. Het ontwikkelen van effiënte algoritmen is een van de grootste uitdagingen voor informatici. Een efficiënt algoritme lost een computationeel probleem in een realistische tijd op, met een realistisch gebruik van computergeheugen, processorsnelheid en elektrische energie.

In alledaagse toepassingen kunnen algoritmen echter pas succesvol zijn wanneer ze ingebed worden in een gebruiksvriendelijk ontwerp. Ontwerp is daarom de derde trap in de informaticamethodologie. Deze trap leidt meteen weer tot nieuwe vragen voor de theorie, bijvoorbeeld: Hoe kunnen we complexe systemen simpel bouwen? Hoe kunnen we garanderen dat ze foutloos en veilig zijn? Hoe kunnen we ze onderhouden? Voor deze derde trap is het belangrijk om de interactie tussen mens en machine te begrijpen. Informatica raakt hier aan psychologie.



Tuesday, August 27, 2013

De 0,21 vrouwen van Zomergast Wouter Bos

'Hállo zeg: er zaten welgeteld 0,21 vrouwen in de Zomergastenaflevering met Wouter Bos', zo luidt de kop boven een Volkskrant opinie-artikel van Jacq.Veldman.

“En ik heb dit uitgerekend op mijn rekenmachine”, staat er ook nog bij. Gelukkig. Dat stelt gerust.

Ik bleef alleen met een vraag zitten...‘0,21 vrouwen?’ Wat betekent dat in hemelsnaam?

Dat er 0,21 % van de tijd een vrouw in beeld is geweest?
Dat er 21% van de tijd een vrouw in beeld is geweest?
Dat er 0,21% van de tijd een vrouw aan het woord is geweest?
Dat er 21% van de tijd een vrouw aan het woord is geweest?
Dat er in 21% van de fragmenten een vrouw in beeld is geweest?
Dat er in 0,21% van de fragmenten een vrouw in beeld is geweest?
Dat er in 21% van de fragmenten een vrouw aan het woord is geweest?
Dat er in 0,21% van de fragmenten een vrouw aan het woord is geweest?

En de mogelijkheden zijn nog lang niet uitgeput…

Is de verhouding tussen het aantal vrouwen dat in beeld is geweest en het aantal mannen misschien 0,21?
Is er misschien alleen maar 0,21e deel van een enkele vrouw in beeld geweest?

...enzovoort...

Tellen is vaak nuttig, maar geef dan wel aan wat je telt.

En als duidelijk is wat er is geteld, dan is de volgende - en belangrijkste vraag: wat zegt dat getal in hemelsnaam? Niet alles wat je kunt tellen telt, en niet alles wat telt kun je tellen.

Maar er gloort hoop:

Een dag na het onthullende nieuws dat er “welgeteld 0,21 vrouwen in de Zomergastenaflevering met Wouter Bos” zaten, heeft het Californische start-up-bedrijf BrainPolice 0.21 bekend gemaakt dat het nog dit najaar op de markt komt met de Jacq. Veldman-headset. Persvoorlichter Winston Smith van BrainPolice 0.21: “De headset meet instantaan de verhouding tussen de tijd die het brein van een Zomergast aan een vrouw besteedt en de tijd die hetzelfde brein aan een man besteedt. Die verhouding noemen we uiteraard de Jacq. Veldman-verhouding. De Jack.Veldman-headset bepaalt die verhouding met een nauwkeurigheid van 0,21%”.

In het voorjaar van 2014 levert BrainPolice 0.21 een revolutionaire uitbreiding van de Jacq. Veldman-headset. Winston Smith: “Een aangekoppelde Transcraniële Magnetische Stimulatie-module zal dan in staat zijn om de gedachten van een Zomergast instantaan te corrigeren: wanneer de Jacq. Veldman-verhouding meer dan 0,21% afwijkt van het magische getal 0,5 dan wordt het brein van de Zomergast dankzij de magnetische stimulatie meteen gecorrigeerd. Wij garanderen dat alle Zomergasten evenveel aandacht voor vrouwen als voor mannen hebben, in ieder geval in hun eigen brein en in het kiezen van de filmfragmenten. Zowel onze headset als onze TMS-module gebruikt natuurlijk het sublieme Jacq. Veldman-algoritme, uitgerekend op haar rekenmachine. Verbeter de wereld, koop de Jacq.Veldman-headset.”

Wednesday, July 17, 2013

Redeneren met de Franse slag

Deze boekrecensie is gepubliceerd in technologietijdschrift De Ingenieur van 12 juli 2013

Al decennialang gehoorzamen computers de wet van Moore. Deze komt er op neer dat ruwweg elke twee jaar het aantal rekenoperaties per seconde verdubbelt. Trek de wet van Moore door, en rond 2045 evenaart een thuiscomputer het menselijk brein. Bovendien kan tegen die tijd de software net zo adequaat nieuwe kennis en vaardigheden leren als het menselijk brein. Combineer deze hardware- en softwareontwikkelingen, en de computers en robots van 2045 lachen zich een breuk om die domme mensen die aan de wieg van hun elektronische voorouders hebben gestaan en die hun zelflerende software hebben geschreven.

Maar oeps, gaan die slimme machines ons dan als slaven gebruiken?

Om dat te voorkomen moeten we nu al nadenken over rechten en plichten voor robots. Dat betoogt auteur Henny van der Pluijm in zijn boek Rechten en plichten voor robots. Het boek herkauwt dezelfde argumenten die futurist Ray Kurzweil in het overigens veel beter geschreven boek The Singularity is Near (2005) gebruikt, en vult die aan met voorbeelden die de noodzaak van rechten en plichten voor intelligente machines moeten illustreren.

Een medicijn-halende robot wordt overvallen door hangjongeren. Een intelligente machine-adviseur wordt door de Raad van Bestuur van een multinational ingehuurd, maar legt genadeloos het disfunctioneren van diezelfde raad bloot. Altijd weer vermakelijk, zulke voorbeelden, maar ook te veel science-fiction. Al decennia horen we dat robots ons nu toch echt komen verlossen van al die vervelende rotklussen in huis, maar zelfs de stofzuigerrobot wacht nog steeds op een promotie van gadget tot massaproduct.

Dan de argumenten. Die komen met de Franse slag. Zelfs als de wet van Moore nog decennialang geldig blijft (wat nu al dubieus is), dan zegt dit weinig over wat een computer met die rekensnelheid doet. Menselijke intelligentie is zeker niet equivalent aan, of zelfs maar evenredig met, het aantal rekenoperaties per seconde. Er is geen wet van Moore voor software, noch een wet van Moore voor het begrip van ons brein.

De Franse slag wordt nog groter in het argument van het leervermogen van machines. Niemand weet nog hoe we machines een algemeen lerend vermogen kunnen geven vergelijkbaar met dat van het menselijk brein. Het moment van de waarheid in de informatica is een werkend computerprogramma en de rest is profetie. In theorie kan een robot volledig inburgeren in het menselijke leven, net zoals in theorie de wereldvrede morgen kan aanbreken.

In tegenstelling tot de beeldvorming in de massamedia, worden Ray Kurzweil en zijn Hollywood-gegoochel met de Wet van Moore onder wetenschappers in de kunstmatige intelligentie totaal niet serieus genomen. Zoals MIT-roboticus Nicholas Roy in 2011 in dit blad over Kurzweil zei: “Niemand heeft ooit iets zinvols over de toekomst gezegd, behalve dan om de verkoop van een boek omhoog te stuwen.” Jammer dat al die profetie over machines die mensen overvleugelen en rechten en plichten zouden moeten krijgen, de aandacht afleidt van de praktijk van vandaag en morgen: een samenwerking tussen menselijke en machine-intelligentie. Hoe combineren we het beste van beide typen intelligentie? Dat is de echt belangrijke vraag.

O ja, ik heb ’s werelds slimste chatbot, Ramona 4.1 van Ray Kurzweil, gevraagd of zij wil dat wij mensen haar rechten en plichten toekennen. Ramona antwoordde letterlijk: “Ik ben er niet zo zeker van dat ik zou willen te willen dat wij jou rechten en plichten toekennen.”

Boekinformatie:
Henny van der Pluijm: Rechten en plichten voor robots. PC Active. 251 blz. € 23,90
http://rechtenenplichtenvoorrobots.nl

Thursday, July 4, 2013

Bekijk hier mijn lezing 'Kunstmatige intelligentie: Feit versus Fictie'

Klik op de afbeelding hieronder voor het bekijken van de video-opname van mijn VINT-Lezing: Kunstmatige intelligentie: Feit versus Fictie


Tuesday, July 2, 2013

American-Dutch partnership on cyber security

For three days in May, a delegation from the US Department of Homeland Security (DHS) Science and Technology Directorate visited the Netherlands to discuss collaboration in the field of cyber-security research. DHS Cyber Security Division Director Douglas Maughan tells about the results of the visit and his ideas for improving cyber security.

The interview took place before the PRISM-program was revealed.

This article is published in I/O Magazine, June 2013

What are the most important challenges for the US when it comes to cyber security?

‘On the top of our list is the area of education. We need a new generation of cyber-security defenders. In the US, fewer and fewer students are going into science and technology, yet the job market in cyber security continues to expand. In order to get kids interested in the field, we have organised a national cyber-defence competition at the collegiate level. In total, 1500 kids took part in a competition in which they had to defend a computer network. In the last few days we have been talking about this with our Dutch partners to see whether we can help them in setting up something like this in the Netherlands. Companies can help to fund such a competition, and they can find their next generation of employees among the kids that take part.’

In terms of challenges, I guess I was thinking more about cyber crime and cyber warfare...

‘Sure, cyber crime is a big concern. Criminals tend to have the latest technologies and law enforcement often lags a bit behind, so of course we are fighting to catch up.

Another big challenge is how to share information between the public and private sectors. In the US, the private sector owns 85 to 90% of the critical infrastructure such as power grids, water supplies and telecommunication. We at the government often have information about cyber threats that we need to share with the private sector in order to defend those critical infrastructures. The threats we are facing are basically the same threats that the Netherlands is facing, so there you can already see the importance of working together.’

I was surprised to learn that a country as huge as the US would want to collaborate with a country as small as the Netherlands in the field of cyber security.

‘I wouldn’t put it like that. In the world of cyberspace you can’t solve problems alone. We try to work with anybody who has good ideas. We also have partnerships with countries like the UK, France and Sweden. I have been in the cyber-security research community for 25 years now, and I think the Dutch academic community in this field is extremely strong. The Dutch have a very strong background in computer systems. And in cyber forensics the Dutch are ahead of most others – if not all others – in the world. We view the US-Dutch collaboration as extremely important, and I believe we are going to have a fruitful partnership.’

What do you expect of the partnership?

‘Our goal at the DHS is to get cyber-security technologies researched, developed and commercialised, so we are more focused on applied than on basic research. We fund projects that have a possibility of being commercialised. We know that we will fund some research at the Dutch Forensics Institute (NFI). Furthermore, we have talked in the last two days with the Dutch National Cyber Security Centre as well as NWO about some other concrete projects, but we haven’t finalised those talks yet. We are also discussing the possibility of calls for collaborative research: respondents would have to show a research proposal with both a US and a Dutch component.’

Can you tell a bit more about some of the research areas that will be involved in the partnership?

‘One common theme for both the US and the Netherlands is setting up Incident Response Teams. How do you put together a team that has to act in case of some cyber emergency? What are the types of skills that members of such a team would need? This is not a technical problem, but rather a social-science problem. Cyber security is not only a technical field. Sometimes it’s more about humans than people realise. Furthermore, there is an economics question: what causes companies to invest or not to invest in new cyber-security technology? And what are the incentives for criminals? From the side of law enforcement, there is the key question of how to extract information for legal prosecution from the data owned by cyber criminals. These are the themes that we have agreed on so far. We are still discussing collaboration in the field of control systems for vital infrastructures and in the field of electronic identity. Which technologies can we develop to make digital identities more secure?’

Will the research done within the partnership be open or classified?

‘It will be open, like almost all of the DHS research programmes. Only some of the research that the DHS does with the law-enforcement community is classified.’

Apart from technical issues, isn’t raising public awareness another important aspect of cyber security? Many ordinary computer and Internet users have no idea about their vulnerabilities.

‘Sure. That’s the reason that the US has started the national campaign “Stop. Think. Connect.” This campaign is aimed at increasing the public’s understanding on issues like identity theft, fraud and phishing, cyber bullying and cyber predators: people who search online for other people in order to use, control or harm them in some way.’

What can realistically be achieved in cyber security in the near future?

‘First of all, we can make improvements in the security of the Internet infrastructure. Domain Name System security is one such improvement. It means that when you visit a website, you can be sure that it is really the website you intended to visit and not a fake website that looks similar. The same goes for data integrity. If you go to google.com and you get data, it should be automatically guaranteed that the data have not been changed underway. Second, since so much of Internet use takes place nowadays via mobile devices, we have to stay ahead in the mobile world, which is a very different one from the traditional desktop world. Third, the next generation of hardware and software systems needs to have built-in security. Internet users should not have to worry about security. The Internet should be like water or air.’

I am sure that you know the TV-series ‘Person of Interest’. How realistic is it according to you?

‘Hollywood is always interesting when it’s doing cyber security. Some of such series have been predictive. However, I think that ‘Person of Interest’ causes more anxiety than that it raises awareness. Hollywood is Hollywood. Sometimes they are ahead of the game, and sometimes they are not.’

---------------------------------------------------------------------------------

NWO research projects on cyber security

In April 2013, nine Dutch cyber-security research projects received a total of EUR 3.2 million in funding from the Netherlands Organisation for Scientific Research (NWO) in connection with the first call for proposals in the long-term Cyber Security research programme. The nine projects will investigate a wide variety of cyber-security challenges. For example: Can ‘backdoors’ in embedded devices (allowing cyber criminals to control them remotely) be automatically detected? What can we learn about the personality traits, the motivations and the networks of cyber criminals? How can we strengthen the weakest link in cyber security: consumers without any expertise? How can we find a balance between securing personal data and keeping information systems user-friendly? How can security analysts best detect malware? A second call for research proposals is expected this summer. The proposed research all fits in with the Dutch National Cyber Security Strategy (NCSS). As part of the strategy, in January 2012 the Cyber Security Centre has been founded, that collaborates with NWO.

Internet
Cyber-security treaty signed between the US and the Netherlands:
www.nwo.nl/actueel/nieuws/2012/nwo-en-ncsc-geven-invulling-aan-nederlands-amerikaanse-samenwerking-in-cyber-security-onderzoek.html
Nine NWO projects on cyber security:
www.nwo.nl/actueel/nieuws/2013/ew/negen-projecten-in-cyber-security-onderzoek-van-start.html
Nationaal Cyber Security Centrum:
https://www.ncsc.nl
Department of Homeland Security on cyber security:
www.dhs.gov/topic/cybersecurity
Cyber-security awareness campaign ‘Stop, think, connect’:
www.dhs.gov/stopthinkconnect
DHS Science & Technology Directorate, Cyber Security Division:
www.dhs.gov/st-csd

Friday, June 28, 2013

Geen angst, de robot komt je redden

Tot en met de finaledag van aanstaande zondag is Eindhoven dezer dagen het strijdtoneel van het WK RoboCup. 2500 deelnemers uit veertig landen gaan de competitie aan met reddingsrobots, servicerobots en voetbalrobots. 

Dit artikel is gepubliceerd in NRC Handelsblad van vrijdag 28 juni 2013



Achter een puinhoop van stenen staat een auto met het linkerportier open. Zit er nog een slachtoffer in of niet? Een Japanse reddingsrobot zet zijn rupsbanden in beweging en klautert de stenen op. Hij wankelt even, maar vindt zijn evenwicht. De robot reikt met een lange arm naar het portier en zoekt met zijn camera-oog in de auto. Nee, geen slachtoffer te bekennen. Reddingsrobot Kenaf van de Tohoku Universiteit in het Japanse Sendai is aan het trainen op het Eindhovense WK-parcours. Terwijl voetbalrobots de meeste aandacht trekken, zijn het de reddingsrobots die het dichtst bij praktische toepassingen staan. Ideaal voor gevaarlijke klussen in rampgebieden.

De Portugees Gabriel Lopes, universitair docent intelligente robotica van de TU Delft, zit in de organisatie van het wereldkampioenschap voor reddingsrobots. Hij legt uit hoe het WK werkt: “De reddingsrobots moeten slachtoffers vinden in diverse nagebootste rampsituaties. Als slachtoffers gebruiken we trouwens poppen. De robots moeten de omgeving en gebouwen nauwkeurig in kaart brengen en uitzoeken hoe de slachtoffers er aan toe zijn. Bij een echte ramp is het belangrijk dat de robot menselijke hulpverleners informeert waar ze slachtoffers kunnen vinden. De reddingsrobots krijgen cijfers voor alle onderdelen van het zoek- en reddingswerk.”

De reddingsrobots kunnen op afstand met een tablet of zelfs met een virtual reality-helm worden bestuurd, maar ze kunnen ook geheel autonoom opereren. Ook bij een echte ramp is er namelijk lang niet altijd radiocontact met een menselijke operator mogelijk.

Hoe goed presteren de reddingsrobots? Lopes: “In de afgelopen jaren is grote vooruitgang geboekt met het in kaart brengen van de omgeving. Dat is een gigantische uitdaging omdat het terrein na een ramp letterlijk en figuurlijk zo’n puinhoop is. Alles ligt in ongebruikelijke hoeken op en tegen elkaar aan. Modder en stof ontnemen het zicht. Steekt daar een hand uit, of is het toch een stuk steen? De kaarten die de robots tegenwoordig van hun omgeving maken zijn goed bruikbaar voor hulpverleners. Software die voor RoboCup-reddingsrobots is ontwikkeld, ligt aan de basis van de beste software die nu verkrijgbaar is voor het in kaart brengen van omgevingen.”

Dat is een duidelijk succes. Aan de andere kant zijn mobiliteit en robuustheid soms nog wel eens een probleem, geeft Lopes toe. Hoe zit het dan met de inzet van reddingsrobots bij echte rampen? Lopes: “Ze werden voor het eerst gebruikt na de aanslag van 11 september in New York. Het merendeel van de robots raakte echter vast in het puin. Na de kernramp in Fukushima zijn ze ook ingezet om de omgeving in kaart te brengen. Die robots moesten wel uit de VS worden ingevlogen, omdat Japan geen robots had die tegen straling konden. Dat is essentieel omdat anders de boordcomputer gek wordt. Traditioneel heeft Japan ingezet op sociale robots, maar na Fukushima is dat aan het veranderen. Verder begint de Amerikaanse brandweer nu op grote schaal reddingsrobots te gebruiken.”

De meeste reddingsrobots verplaatsen zich op rupsbanden, net als militaire tanks. Sommige gebruiken wielen. Reddingsrobots op benen zijn een uitzondering, maar bieden het grote voordeel dat een robot ermee kan springen. De ideale reddingsrobot van Lopes combineert wielen daarom met benen. Lopes laat een recente Delftse uitvinding zien: een speciaal wiel, dat kan worden afgerold en zo verandert in een gekromd, insectachtig been. Zo hoopt de Delftse roboticus in de toekomst lopen en rollen in een en dezelfde robot te combineren.

“Wat we leren van de reddingsrobots”, zegt Lopes, “kunnen we in andere takken van de robotica gebruiken. Wat betreft bewegen, waarnemen en handelen staan reddingsrobots voor de allermoeilijkste robotica-uitdagingen. Bovendien telt voor een reddingsrobot elke seconde, wat hoge eisen stelt aan de snelheid waarmee de software acties moet berekenen. Als we het probleem van reddingsrobots weten op te lossen, dan hebben we alle roboticaproblemen opgelost.”

[kader]
Creatieve voetbalrobot toont glimp van Messi
Kan een voetbalrobot een actie maken die zelfs de robotmakers verbluft? “Nou en of”, zegt werktuigbouwkundige René van de Molengraft van de TU Eindhoven. Hij is technisch manager van het Eindhovense robotvoetbalteam Tech United dat in 2012 wereldkampioen werd en dat ook dit jaar weer favoriet is. “Tijdens een WK-wedstrijd dribbelde een van onze robots met de bal bij zich. Een tegenstander kwam op hem af. Onze robot draaide tijdens de dribbel om zijn as, ontweek de tegenstander en speelde zichzelf vrij. Briljant mooi. Het leek wel Messi.”

Hoe kan hij zo verbaasd zijn, terwijl hij met zijn team zelf de robot heeft geprogrammeerd? Van de Molengraft: “De programmacode is deterministisch: bij een bepaalde invoer van waarnemingen hoort een bepaalde actie. In zekere zin zit de Messi-actie dus al verscholen in de software. Maar het cruciale punt is dat de wereld om de robot heen zo ongelofelijk veel verschillende mogelijke toestanden kent. Eigenlijk spelen twee stukken software die elkaar niet kennen tegen elkaar. Het gedrag van onze robot hangt af van wat de tegenstander doet. Dat leidt tot emergent gedrag dat niemand van te voren exact kan voorspellen.”


Het Eindhovense team van Tech United werd in 2012 wereldkampioen in de Middle Size League. Hierin spelen twee teams van elk vijf robots tegen elkaar met een officiële FIFA-voetbal. Elk team bestaat uit vier veldspelers en een keeper. De veldspelers mogen maximaal veertig kilogram wegen. Elke speler ziet er uit als een soort kegel op drie wieltjes en rijdt maximaal vier meter per seconde. Twee aparte wieltjes aan de onderkant fungeren als de voeten die de bal mogen spelen. Omdat de bal niet mag worden vastgeklemd tussen de wieltjes, draaien ze allebei rond. Met een schietmechanisme kan de bal worden afgespeeld naar een medespeler of op doel worden geschoten. De robot-Messi moet het voorlopig dus wel nog stellen met wieltjes in plaats van met benen.

Friday, June 21, 2013

De toekomst van de natuurkunde

Welke natuurkundige vraagstukken zijn de laatste jaren opgelost? Wat zijn de grote vragen waarop we in het komende decennium een antwoord kunnen verwachten? UvA-hoogleraren Stan Bentvelsen, Erik Verlinde en Ralph Wijers treden in debat.

Dit artikel is gepubliceerd in SPUI UvA Alumni Magazine 01/2013 (21 juni 2013 - klik op de link om het papieren nummer van SPUI in digitale vorm door te bladeren)


Prof. dr. Stan Bentvelsen is hoogleraar Large Hadron Collider Physics aan de UvA en directeur van het Instituut voor Hoge Energie Fysica.

Prof. dr. Erik Verlinde is hoogleraar theoretische fysica aan de UvA. In 2011 won hij de NWO Spinozapremie, de hoogste Nederlandse wetenschappelijke onderscheiding.

Prof. dr. Ralph Wijers is hoogleraar hoge-energie astrofysica aan de UvA en directeur van het Sterrenkundig Instituut Anton Pannekoek. 

----------------------------------------------------------------------------

Bennie Mols: Laten we, voordat we over de toekomst van de natuurkunde gaan praten, eerst eens de vinger aan de pols nemen van de huidige natuurkunde. Laten we als vergelijking de natuurkunde van honderd jaar geleden nemen, 1913 dus. Dat was het jaar waarin Niels Bohr zijn kwantummechanische atoommodel presenteerde. Einstein had in 1905 met zijn speciale relativiteitstheorie de klassieke mechanica van Newton op zijn kop gezet. En dat terwijl natuurkundigen aan het eind van de 19e eeuw nog dachten dat hun vak bijna af was.

Hoe staat de natuurkunde er nu voor vergeleken met die tijd?

Stan Bentvelsen: “We hebben nu zo’n totaal ander denkkader. We hebben een goed werkend Standaardmodel voor drie van de vier fundamentele natuurkrachten en voor een hele familie aan elementaire deeltjes die toen nog onbekend was.”

Erik Verlinde: “Ik heb het gevoel dat de situatie van nu vergelijkbaar is met die van eind 19e eeuw. We lijken veel te begrijpen, maar er liggen nog steeds veel open vragen. Ik denk dat we net zulke conceptuele doorbraken nodig hebben om die vragen op te lossen als de doorbraken die begin 20e eeuw nodig waren. Er is een tijd geweest, vooral in de jaren negentig, dat de theorie van het hele kleine ver vooruitliep op het experiment. Dat waren de beginjaren van de snaartheorie. Maar met de experimenten van CERN’s Large Hadron Collider (LHC) heeft het experiment de theorie weer ingehaald. We krijgen nu een explosie van experimentele data die nieuwe theorieën gaan voeden.”

Ralph Wijers: “In de sterrenkunde is het verschil tussen 1913 en 2013 nog veel groter dan in de natuurkunde. Een verschil van dag en nacht. In 1913 leefden we in een eeuwig en onveranderlijk heelal. Nu weten we dat het heelal uitdijt en een begin heeft gehad. We weten zelfs vrij precies dat het 13,7 miljard jaar oud is en evenzovele lichtjaren groot. Het inzicht dat we de natuurkunde van het aardse kunnen gebruiken om het heelal te begrijpen, begon pas goed na 1913. Nu zitten we in een situatie waarin we nieuwe natuurkunde kunnen ontdekken door naar het heelal te kijken. Natuurkunde en sterrenkunde zijn vervlochten geraakt.”

Bentvelsen: “In de afgelopen vijftien jaar is de kosmologie een hele kwantitatieve wetenschap geworden. Daardoor kunnen we een uitspraak doen als dat slechts zo’n 5% van de inhoud van het heelal bestaat uit gewone materie zoals we die op aarde kennen, en dat zo’n 25% gek materiespul is dat we ‘donkere materie noemen’. De overige 70% is een gek soort energie die we ‘donkere energie’ noemen.”

Er wordt wel gezegd dat al het laag hangende fruit in de natuurkunde al is geplukt. In hoeverre klopt dat?

Wijers: “De ontdekking van grafeen in 2004 [een koolstoflaagje van één atoom dik met bijzondere materiaaleigenschappen (red.)] is een mooie uitzondering. Dat werd gevonden door met een plakbandje stukjes koolstof af te schrapen van een potloodpunt. Toch wordt het aantal plekken waar nog zo’n groot gat in onze kennis zit dat we het snel kunnen opvullen steeds kleiner. We zien steeds vaker dat we om iets nieuws te vinden eerst miljoenen moeten investeren in apparatuur: een deeltjesversneller of een telescoop.”

Verlinde: “Ik denk dat enkele individuen nog steeds met radicaal nieuwe ideeën kunnen komen. Zeker als het gaat om de natuurkunde van materialen, denk ik dat keukentafelexperimenten nog steeds nieuwe ontdekkingen kunnen opleveren. In die zin is grafeen geen uitzondering.”

Wijers: “Tegenwoordig gaat het om een combinatie van het beste brein met het beste apparaat. Alleen een van die twee is meestal niet meer genoeg.”




Wat zijn voor jullie de belangrijkste doorbraken van de afgelopen tien tot vijftien jaar?

Bentvelsen: “Voor mij ongetwijfeld de ontdekking van het Higgsdeeltje in 2012. Het kwam niet geheel onverwacht, maar ik vind het prachtig hoe we iets wat decennia geleden is bedacht nu ook experimenteel terugvinden.”

Verlinde: “Voor mij ook zeker het Higgsdeeltje. Maar daarnaast ook nog de ontdekking dat het heelal versneld uitdijt. Dat is waar we de naam ‘donkere energie’ op hebben geplakt zonder te weten wat dat is. Verder moeten we niet vergeten dat er behalve een natuurkunde van het hele kleine en het hele grote er ook nog veel natuurkunde is op schalen daartussenin. We kunnen kwantummechanische systemen steeds groter maken. Mede daardoor hebben ze in Delft vorig jaar het Majoranadeeltje kunnen ontdekken. En ook de ontdekking van hele gekke materialen is een doorbraak die we ook niet moeten vergeten. Metamaterialen kunnen allerlei trucs met licht uithalen die we lang voor onmogelijk hielden. En er blijkt allerlei materie te zijn die noch vast, vloeistof of gas is.”

Wijers: “Ik ben het eens met Stan en Erik. Maar ik wil er nog een doorbraak aan toevoegen: de ontdekking van exoplaneten, planeten die om een andere ster dan onze zon draaien. Dat is weliswaar geen fundamentele natuurkunde, maar raakt wel aan een aloude, fundamentele vraag: Zijn wij alleen in het heelal of is er ergens anders ook nog een planeet met leven?”

Laten we nu dan naar de toekomst van de natuurkunde kijken. Op welke vragen kunnen we in de komende tien tot twintig jaar een antwoord verwachten?

Bentvelsen: “Ik hoop en denk dat we het deeltje gaan vinden dat verantwoordelijk is voor wat we nu donkere materie noemen. Daarbij gebruiken we drie tactieken. We proberen donkere materie in de LHC te maken. We proberen donkere materie in speciale detectoren op aarde te meten. En tenslotte proberen we met satellieten te speuren naar signalen van donkere materie die uit de ruimte komen.

Verder hoop ik op een verklaring voor de grote vraag waarom we om ons heen zo veel meer gewone materie zien dan antimaterie. Terwijl er bij de oerknal evenveel materie als antimaterie moet zijn gecreëerd. De LHC heeft al kleine verschillen laten zien, maar nog lang niet genoeg om dat raadsel op te lossen. De LHC kan zeker nog tot 2025 draaien en ik denk dat we pas in 2030 het hele potentieel van de versneller hebben benut.

Ik denk ook dat we zwaartekrachtgolven kunnen ontdekken, golven in de structuur van de ruimtetijd zelf...”

Wijers: “We hebben indirecte aanwijzingen dat zwaartekrachtgolven moeten bestaan. En als de nu geplande verbeteringen van bestaande detectoren succesvol worden uitgevoerd dan moet er wel iets heel bizars aan de hand zijn wanneer we ze niet vinden.”

Verlinde: “Wat mij betreft wordt de zoektocht naar donkere materie de belangrijkste in de komende tien jaar. Het lijkt misschien of we met het Standaardmodel bijna klaar zijn, maar ik zie allerlei aanwijzingen dat we een conceptueel nieuwe theorie nodig gaan hebben. Vooral om verschijnselen op hele grote schalen te begrijpen: Wat is het effect van donkere materie op melkwegstelsels? Wat bepaalt de verhouding tussen donkere materie en gewone materie? Is de oerknal echt het begin van alles? Ik denk dat we daar een heel ander beeld van gaan krijgen.

Zelf ontwikkel ik een nieuwe theorie van de zwaartekracht. Daarin is zwaartekracht een emergent fenomeen dat ontstaat uit de onderliggende statistische eigenschappen van massa, ruimte en tijd. Ik ben bezig om dat nieuwe idee te toetsen aan de experimentele gegevens over donkere materie.”

Wijers: “Ook ik denk dat we in de komende tien jaar de aard van donkere materie gaan vinden. Ik denk verder dat we gaan bepalen hoeveel van alle exoplaneten aardachtige eigenschappen hebben en wat de kans is dat er daar leven is. Ten slotte denk ik aan een existentiële vraag: Waarom is het heelal gevuld met iets dat rijk is aan structuren in plaats van gewoon glad en saai?”




Dan zou je je ook wel kunnen afvragen dat het raar is dat er überhaupt iets is, en niet niets....

Wijers: “Ja, ja, de meest natuurlijke uitkomst is dat er niets is.”

Verlinde: “Die vraag is voor mij een voorbeeld van een vraag die we nooit kunnen beantwoorden. Logisch gezien had er ook niets kunnen zijn.”

Wijers: “Mensen willen altijd weten waarom dingen zo zijn. Die vraag grenst aan metafysica. Soms is er geen waarom. Het is gewoon zo, en wij proberen dat te beschrijven.”

Bentvelsen: “Ik vind dat juist een motivatie om verder te zoeken.”

Verlinde: “De uitdaging is om iedere waarom-vraag om te toveren in een hoe-vraag...Het feit dat er iets is, verander je niet zomaar. Ik denk dat we juist van het vroege heelal een heel ander beeld gaan krijgen. Ik zie gewoon niet in hoe alles wat we nu in het heelal zien, kan zijn ontstaan uit iets wat dat niet had. Dat gaat in tegen de behoudswetten waarvan we juist zien dat ze de natuur heel goed beschrijven.”

Wijers: “Ik geef Erik groot gelijk. Er zit iets heel onbevredigends aan dat ‘poef’: eerst was er niets, en ineens is er een heelal. Als je heel strikt kijkt, dan mag je ook niet vragen wat er voor de oerknal was, want toen was er geen tijd. Dat ruikt naar losse eindjes in ons begrip.”

Verlinde: “Vergelijk de situatie met de stap die Bohr honderd jaar geleden zette met zijn atoommodel. Zonder de kwantummechanica zouden de elektronen die om de atoomkern heen draaien langzaam naar binnen slingeren. De kwantummechanica was de radicaal nieuwe stap die verklaart waarom dat niet gebeurt. Analoog daaraan denk ik dat het onderscheid tussen materie en ruimtetijd gaat verdwijnen.”

Bentvelsen: “Ik vind het mooi om te zien dat onze experimentele resultaten richting geven aan de theoretische natuurkunde. Maar uiteindelijk moeten we het wel hebben over de natuur zoals we deze observeren. Dat is het keurslijf waar we binnen moeten blijven.”


Kunnen we straks alles verklaren of lopen we tegen grenzen aan?

Verlinde: “Toen ik begon in de natuurkunde, geloofden veel fysici nog in een Theorie van Alles. Als we die zouden hebben, dan zouden we alles kunnen uitrekenen. Daar zijn de meesten op teruggekomen. Ik heb het idee dat we nooit echt alles zullen weten. We zijn goed in beschrijven, maar dat is iets anders dan verklaren. Ik denk dat er een limiet is aan de mate van complexiteit die we kunnen beschrijven. Niemand kan bijvoorbeeld alle moleculen in deze ruimte beschrijven.”

Wijers: “Maar ik weet niet of er een fundamentele limiet is. Sommige dingen kunnen we misschien niet of nog niet begrijpen omdat ze te ingewikkeld zijn, maar dat wil niet zeggen dat ze ten principale buiten schot zullen blijven.”

Bentvelsen: “Daar sluit ik me helemaal bij aan. Toch geloof ik niet dat er ooit een dag komt waarop we kunnen zeggen: nu zijn we helemaal klaar.”

Wijers: “Ik word juist gemotiveerd door het idee dat er niets is wat we ten principale niet kunnen begrijpen. Ik geloof dat we de grenzen van onze kennis steeds kunnen blijven verleggen.”

Bentvelsen: “Een bekend natuurkundige zei een keer tegen mij: ‘Ach, dat Higgs-deeltje. Hebben we weer een nieuw deeltje. Waarom hou je er niet een keer mee op?’ Nou, dat past zo totaal niet in mijn wereldbeeld...”

Stel dat we alle natuurwetten hebben gevonden, kunnen we dan de toekomst helemaal voorspellen?

Wijers: “Nee, ik denk dat de natuur daarvoor veel te veel vrijheidsgraden heeft. Chaostheorie laat zien dat sommige fenomenen zo gevoelig zijn voor een iets andere beginvoorwaarde, dat de uitkomst al snel heel anders en onvoorspelbaar wordt. Hoe sterk ik ook geloof in ons vermogen om de natuur te beschrijven, ik geloof niet in predestinatie; of dat mensen geen keuze zouden hebben.”

Verlinde: “De enige manier om de volledige toekomst van alles in het heelal te kennen, is om het heelal te laten doen wat het doet. Ik denk dat het heelal dat al op een hele slimme manier doet en dat wij als mensen geen slimmere manier gaan bedenken. Mijn poes begrijpt geen kwantummechanica. En hoewel de mens slimmer is dan een poes, denk ik dat we ook weer niet zó intelligent zijn dat we alles kunnen begrijpen...Aan de andere kant: we kunnen veel voorspellen zonder dat we alle details hoeven te kennen. Ik ben er van overtuigd dat we als mensen altijd weer nieuwe ideeën over de natuur kunnen verzinnen. We zijn nog lang niet aan het einde van de natuurkunde. Sterker nog, misschien staan we wel aan de vooravond van een nieuwe revolutie.”

Wijers: “Een wereld waarin geen vragen meer zijn, is voor mij een hele saaie wereld. Ik zou depressief worden als er op een ochtend een briefje op mijn bureau ligt waarop alle antwoorden staan geschreven. Dat is alsof je de krant open slaat om een cryptogram op te lossen, maar hij blijkt al ingevuld. Dan bel je toch boos de hoofdredacteur.”


[Begrippenkader:]

Donkere energie: Sterrenkundige waarnemingen laten zien dat het heelal versneld uitdijt. Dat wijst op het bestaan van een soort afstotende kracht die de zwaartekracht tegenwerkt. Omdat sterrenkundigen geen flauw idee hebben van de oorsprong van die kracht, hebben ze er de naam ‘donkere energie’ aan gegeven. Liefst 75% van de energie-inhoud van het heelal zou ‘donkere energie’ zijn.

Donkere materie: Zo’n 25% van de inhoud van het heelal lijkt te bestaan uit spul dat wel onderhevig is aan de zwaartekracht, maar toch heel anders van aard is dan de gewone materie.

Higgsdeeltje: Het Higgsdeeltje is een deeltje dat nodig is om te verklaren waarom andere deeltjes massa hebben. Het is begin jaren ’60 voorspeld en in 2012 voor het eerst waargenomen in de grote LHC-deeltjesversneller van CERN in Genève.

Ruimtetijd: Volgens Einsteins speciale relativiteitstheorie uit 1905 zijn ruimte en tijd één concept: de ruimtetijd. Zwaartekracht bleek ineens een eigenschap van de ruimtetijd zelf te zijn. Elke massa verandert de vorm van de ruimtetijd (zoals een zware bal een trampolinezeil indeukt) en beïnvloedt zo de beweging van een andere massa.

Snaartheorie: Volgens de snaartheorie zijn puntdeeltjes zoals quarks en elektronen eigenlijk minuscule, eendimensionale trillende snaartjes. Snaartheorie verenigt de natuurkunde van het hele kleine (de kwantummechanica) met de natuurkunde van het hele grote (de zwaartekracht).

Standaardmodel: Momenteel de beste beschrijving van drie fundamentele krachten (elektromagnetische kracht, zwakke kernkracht en sterke kernkracht) en drie families van elementaire deeltjes in de natuur. De vierde fundamentele natuurkracht, de zwaartekracht, wordt niet verklaard binnen het Standaardmodel.

[CV’s]

Prof. dr. Stan Bentvelsen (1965)

1989 Afgestudeerd in de theoretische natuurkunde aan de UvA.

1994 Promotie in de experimentele hoge energie fysica aan de UvA.

1994-2000 Fellow en vervolgens stafmedewerker bij CERN in Genève.

2000-2005 Senior onderzoeker bij FOM - Nikhef. Voorbereiding voor het Atlas-experiment bij de LHC.

2005-2013 Programmaleider van de Nederlandse bijdragen aan het Atlas-experiment bij CERN

Sinds 2005 Hoogleraar Large Hadron Collider Physics aan de UvA en directeur van het Instituut voor Hoge Energie Fysica.

2013 Ontvangt samen met prof. dr. Frank Linde de Physicaprijs 2013 voor hun bijdragen aan de ontdekking van het Higgsdeeltje met het Atlas-experiment op CERN.


Prof. dr. Erik Verlinde (1962)
1985 Afgestudeerd in de theoretische natuurkunde aan de Universiteit Utrecht.

1988 Promotie in de theoretische natuurkunde aan de Universiteit Utrecht.

1988-1993 Werkzaam aan het Institute for Advanced Study in Princeton (VS).

1993 Toetreding tot de permanente staf van CERN.

1996 Hoogleraar theoretische natuurkunde aan de Universiteit Utrecht.

1999 Hoogleraar theoretische natuurkunde aan de Princeton University.

Sinds 2003 Hoogleraar theoretische natuurkunde aan de UvA.

2011 Ontvangt de NWO Spinozapremie, de hoogste Nederlandse wetenschappelijke onderscheiding.



Prof. dr. Ralph Wijers (1964)
1987 Afgestudeerd in de sterrenkunde aan de Universiteit Leiden

1991 Gepromoveerd in de sterrenkunde aan de Universiteit van Amsterdam

1991-1994 Compton Fellow aan het Princeton University Observatory (VS)

1994-1998 PPARC en Royal Society Fellow aan het Institute of Astronomy in Cambridge (GB)

1998-2002 Assistent professor, Stonybrook University (VS)

Sinds 2002 Hoogleraar hoge-energie astrofysica aan de UvA.

Sinds 2011 Directeur van het Sterrenkundig Instituut Anton Pannekoek van de UvA

EU Descartes prijs (2002), NWO Vici-laureaat (2003), ERC Advanced Investigatior Grant (2010)

Wednesday, June 19, 2013

De menselijke stofwisseling als informatieproces

In het NWO-programma Computational Life Sciences werken biologen samen met chemici, informatici en wiskundigen om nieuwe computationele methoden te ontwikkelen die nodig zijn voor het begrijpen van biologische systemen. Een van de CLS-projecten richt zich op het begrijpen van de menselijke stofwisseling: Hoe maken voedingsstoffen de mens maken tot wie hij is? 



Dit artikel is gepubliceerd in I/O Magazine, juni 2013

Wat ons lichaam doet met de voedingsstoffen die het binnenkrijgt, verschilt van persoon tot persoon. De een komt snel aan, de ander niet. Bij de een verhoogt zout de kans op hart- en vaatziekten flink, bij de ander heeft het nauwelijks invloed. Het ontwikkelen van kwantitatieve modellen die verklaren hoe dat komt, is een grote uitdaging binnen de biologie. Zulke kwantitatieve modellen kunnen vervolgens gebruikt worden om voedings-, gezondheids- en medicijnadviezen op maat te geven. Dat is in ieder geval de toekomstdroom.

Om die toekomstdroom te realiseren, is de informatica inmiddels onmisbaar geworden. Dat komt door de enorme hoeveelheden experimentele data die biologen verzamelen over de mens als biochemische machine: data van de genen, de activiteiten van die genen, de eiwitten waarvoor de genen de bouwinstructies bevatten en de stofwisselingsproducten die binnen en buiten de lichaamscellen worden gemaakt. De informatica is nodig om die datastromen te analyseren. Sinds 2003 kent Nederland het NWO-programma Computational Life Sciences (CLS, zie kader) om onderzoek binnen deze tak van de informatica te ondersteunen.

“Voor mij gaat Computational Life Sciences over het koppelen van data aan modellen”, zegt Marcel Reinders, lid van de CLS-programmacommissie en hoogleraar bioinformatica aan de TU Delft. “Het interessante van CLS is dat de verschillende disciplines zodanig aan het mengen zijn, dat je niet meer zo makkelijk kunt praten over dé informaticacomponent, dé biologiecomponent of dé wiskundecomponent van een CLS-project. Als je een CLS-onderzoeksprobleem alleen aan een wiskundige geeft, dan krijg je een mooie theorie waar een bioloog weinig aan heeft. Geef je het alleen aan een informaticus, dan krijg je een algoritme verpakt in een mooi interface, waar de bioloog en de wiskundige weinig aan hebben. Het belangrijkste resultaat van CLS tot nu toe is dat het programma biologen, informatici en wiskundigen bij elkaar heeft gebracht en dat daar een synergie uit is ontstaan.”

Op de stoel van de ontwerper
Waar het bij elkaar brengen van biologen, informatici en wiskundigen toe kan leiden, laat het net afgeronde CLS-project over metabole netwerken zien. Door het combineren van experimentele biologische data met wiskundige theorieën en efficiënte computeralgoritmes, heeft dit project nieuwe inzichten over de stofwisseling opgeleverd. VU-hoogleraar systeembioinformatica Bas Teusink leidde het project. Teusink: “Sla een tekstboek over biochemie open en het lijkt alsof we alles al weten over de stofwisseling. Niets is minder waar. Neem de enzymen, de katalysatoren tijdens de stofwisseling. We hebben vele metingen van de enzymniveaus, maar niemand heeft een interpretatie voor die metingen. Het lijkt een zooitje. Waarom gaat een enzymniveau in het ene geval tweemaal omhoog en blijft het in het andere geval gelijk?”

Tijdens de stofwisseling staat een lichaamscel eigenlijk voor een grote logistieke opgave: Hoe regel je alle chemische verkeersstromen zodat de juiste stoffen in de juiste verhoudingen worden gemaakt of afgebroken? Teusink en zijn projectmedewerkers hebben daarom een stap terug gedaan en zich af gevraagd: Wat zijn de logische ontwerp-principes waaraan een cel zou moeten voldoen om bij de stofwisseling zo efficiënt mogelijk om te gaan met de beschikbare hoeveelheden energie en materiaal? Robuustheid is een van de logische vereisten: het systeem moet tegen een stootje kunnen. Reguleerbaarheid is een andere logische eis: het systeem moet adequaat in kunnen spelen op veranderingen in de omgeving. Wanneer je een biertje drinkt, signaleert de lever alcoholmoleculen en geeft de levercellen de instructie om enzymen aan te maken die de alcohol afbreken.

De onderzoekers zijn als een soort bio-ingenieurs zelf op de stoel van de ontwerper gaan zitten, hebben verschillende modellen ontworpen en zijn die gaan testen en fijnregelen met de beschikbare experimentele data. Uitgangspunt was de gistcel, die vanwege zijn grote genetische overlap met de mens al decennialang als modelorganisme wordt bestudeerd.

Teusink en zijn collega’s van de Vrije Universiteit Amsterdam en de TU Delft hebben een methode ontwikkeld waarmee ze de optimale enzymverdeling bij de stofwisseling kunnen berekenen op basis van de moleculaire eigenschappen van de individuele enzymen (hoe goed bindt het enzym? hoe groot is het enzym?). “Het is een soort kosten-batenanalyse als functie van de enzymniveaus”, zegt Teusink, “met als randvoorwaarde dat er voor een bepaalde route maar een bepaalde hoeveelheid materiaal beschikbaar is. Bestaande theorieën hielden geen rekening met die randvoorwaarde; wij voor het eerst wel.”

Vanuit informatica-oogpunt ligt het kernprobleem in het omgaan met een hoogdimensionale ruimte (evenveel dimensies als er enzymen worden meegenomen in het model) en het variëren van het honderdtal parameters dat per model kan worden ingesteld. Het aantal mogelijkheden explodeert al snel, waardoor modellen voor stofwisseling het karakter krijgen van wat informatici NP-harde problemen noemen. Een ander informaticaprobleem is de vraag hoe je een biologisch relevante visualisatie maakt van zo’n hoogdimensionaal probleem.



Verkeersstromen op een wegenkaart
Begin maart van dit jaar maakte een grote groep internationale wetenschappers voor het eerst een wegenkaart bekend van de complete menselijke stofwisseling. Een model van 7.440 biochemische reacties tussen meer dan vijfduizend voedingsstoffen laat zien hoe ons lichaam voedingsstoffen verteert, bewerkt en gebruikt als nieuw bouwmateriaal. Zonder twijfel een grote doorbraak. Maar wat nog ontbreekt, is wat het verkeer op die wegen is: hoeveel van welk stofje kiest welke weg? Hoe zijn de afstellingen van de verkeerslichten, ofwel de enzymen, die reacties kunnen versnellen, vertragen en zelfs stop zetten? 

Een grote uitdagingen voor de Computational Life Sciences is om een informatiemodel te ontwikkelen voor de wegenkaart van de menselijke stofwisseling. Reinders denkt dat het realistisch is om te verwachten dat we die wegenkaart in de komende decennia kunnen aanvullen met de benodigde verkeersstromen.

“De wereld van de cel lijkt soms ingewikkelder dan de wereld van de natuurkunde zelf”, zegt Reinders. “Dat kan natuurlijk niet, maar toch. Het menselijk lichaam is een ontzettend in elkaar grijpend systeem dat bestaat uit zo’n 1014 cellen. Om een subsysteem te modelleren, moeten we soms aannemen dat een bepaald eiwitniveau constant is. Maar wanneer we het model testen, blijkt vaak dat we dat eiwitniveau toch niet constant hadden mogen veronderstellen. Tegen dat soort problemen lopen we in de bioinformatica vaak aan.”

“De kunst is om uit te vinden wat je wel en wat je niet mag vereenvoudigen”, vult Teusink aan. “Mijn ideaal is om uit te zoomen van alle details en dan te kijken of we patronen kunnen ontdekken. Een gas lijkt ook een wirwar van botsende moleculen, maar toch kunnen natuurkundigen een statistische gaswet afleiden. Mijn hoop is dat we in de systeembiologie tussen alle complexiteit door ook zulke wetten vinden.”



De smaak van kaas voorspellen
Eind dit jaar loopt het CLS-programma af. Of er een nieuwe CLS-subsidieronde gaat komen, is nog onduidelijk. Maar stel dat die er komt, wat staat dan op het verlanglijstje van de CLS-onderzoekers? “Dan denk ik dat ik de schaal en de complexiteit van de modellen zou willen vergroten”, zegt Reinders. “Dan zouden we meer enzymen en meer lagen van regulatie kunnen modelleren. En misschien zouden we ook moeten denken aan grotere projecten. Hoewel Nederland internationaal aardig meedoet, ontbreekt het bij ons aan grote projecten. In Duitsland is een project gestart om in tien jaar tijd de lever door te meten en te rekenen. In China willen ze een miljoen mensen genetisch gaan sequencen.”

Daarnaast denkt Reinders ook dat een nieuwe CLS-ronde zich wat meer zou kunnen richten op voorspellen in plaats van op alleen beschrijven: “De huidige CLS-programma’s zijn nog vrij fundamenteel en voor de industrie is het gat naar hun praktijk nog vrij groot. Daarbij moeten we wel bedenken dat dit veld pas tien jaar bestaat. Dat is te kort om al onze modellen ook te toetsen aan de industriële praktijk.” Teusink haakt daar op in: “We krijgen wel eens de vraag van een bedrijf of we niet een model hebben dat voorspelt hoe een bepaalde kaas gaat smaken, maar zo ver zijn we nog niet. Aan de andere kant zie ik wel al de eerste modellen verschijnen die genoeg inzicht geven om het aantal experimenten flink te beperken.”

Computational Life Sciences is voor veel informatici nog vrij onbekend terrein. En onbekend maakt onbemind, vinden Reinders en Teusink. Jammer, want goede informatici kan het vakgebied hard gebruiken. “Ik zou informatici graag uitnodigen om de stap naar de Computational Life Sciences te maken”, zegt Reinders. “Informatica is veel meer dan de Google-wereld van enen en nullen.”

Teusink ziet allerlei interessante analogieën tussen biologische netwerken en netwerken uit de informatica, zoals het Internet. “Maar dat je als informaticus kunt meehelpen aan het begrijpen hoe de levende natuur in elkaar staakt, hoe veroudering werkt, wat voeding precies in ons lichaam doet en hoe we gezondheid kunnen verbeteren, dat is toch wel de grootste uitdaging.”

[kader:]
Het NWO-programma Computational Life Sciences

Het programma Computational Life Sciences (CLS) richt zich op de informaticakant van de systeembiologie. Systeembiologen maken kwantitatieve modellen die beschrijven hoe een biologisch systeem werkt: van moleculair en cellulair niveau, via intercellulair niveau naar complete organen en een compleet organisme zoals de mens. CLS-onderzoek ging in de afgelopen jaren over een breed scala aan onderwerpen: onder andere over de menselijke stofwisseling, het afweersysteem, malaria, de genexpressie bij koralen en de communicatie tussen een enkele hersencel en zijn directe omgeving.

Het CLS-programma kende drie subsidierondes: in 2003, 2007 en 2008. De eerste ronde was gericht op het modelleren van biologische deelsystemen zoals een cel, orgaan of organisme. Voor deze ronde was 5,5 miljoen euro beschikbaar (gefinancierd door NWO, stichting Nationale Computerfaciliteiten (NCF) en ZonMW). De tweede en derde ronde waren gericht op het modelleren van biologische netwerken met nieuwe methoden uit de informatica en de wiskunde. Gezamenlijk hadden deze twee rondes een budget van 4,8 miljoen euro (gefinancierd door NWO, NCF, het Netherlands Bioinformatics Centre (NBIC) en het National Genomics Initiative (NGI)).

[Summary in English:]
In 2003 the Dutch National Science Foundation NWO started the program Computational Life Sciences (CLS). The aim of CLS was to strengthen a specific part of computer science that has become indispensable within systems biology. In systems biology biologists cooperate with chemists, mathematicians and computer scientists to develop quantitative models of detailed biological processes. In recent years Dutch CLS-research has covered a broad range of biological subjects: metabolism, the immune system, malaria, gene expression in corals and the communication between a single neuron and its near environment. CLS runs till 2014.

Internet
Meer over de diverse projecten binnen CLS:
www.nwo.nl/onderzoek-en-resultaten/programmas/computational+life+sciences

Wednesday, June 12, 2013

Fact and fiction in artificial intelligence


Thomas van Manen, analyst and strategist at VINT, wrote this about my lecture "Feit in Fictie in kunstmatige intelligentie", given yesterday at the VINT-Symposium.


Bekijk de video-opname van mijn lezing hier.

Tuesday, June 11, 2013

‘De rolstoel kan straks naar het museum’




Verlamde mensen weer laten lopen – dat is het streven van Miguel Nicolelis. Voor KIJK sprak ik met hem.

De Braziliaanse neurowetenschapper Miguel Nicolelis wil de aftrap van het aanstaande wereldkampioenschap voetbal laten verrichten door een aan zijn benen verlamde landgenoot. Het idee is om een hersenchip te koppelen aan een uitwendig skelet van kunstmatige benen: een exoskelet. KIJK sprak met Nicolelis over dit project, met de toepasselijke naam WalkAgain.

KIJK: Wat moeten we ons voorstellen bij zo’n exoskelet?

Miguel Nicolelis: “Het exoskelet zit om de patiënt heen en is gemaakt van lichte, sterke materialen. Het combineert talloze nieuwe technologieën. Voor het eerst wordt het bestuurd met een breinchip, voor het eerst wordt er een feedbacksignaal van het exoskelet naar de hersenen gestuurd, voor het eerst zit er een kunstmatige huid op het exoskelet en voor het eerst trainen we menselijke patiënten in een virtuele omgeving. De kunstmatige huid van het exoskelet bestaat uit buigbare elektronica die voorzien is van sensors. Die kunstmatige huid kan de grond of de bal waarnemen. Dat signaal wordt naar het brein van de patiënt gestuurd. Zo zal de patiënt voelen wanneer zijn voet de grond of de bal raakt. Andere sensors zitten in het exoskelet en registreren bijvoorbeeld de houding van de patiënt, zodat hij rechtop blijft lopen.”

Wanneer zien we de eerste mensen in exoskeletten rondwandelen?

“Wetenschappelijk gezien is de techniek van het aansturen van exoskeletten nu opgelost. We hebben de wiskundige rekenmethoden die breinsignalen vertalen naar het aansturen van een exoskelet. De problemen die nog voor ons liggen, zijn een kwestie van techniek. We moeten informatica, robotica en hersenonderzoek combineren op manieren die niemand eerder heeft gedaan. Exoskeletten moeten licht, robuust en betrouwbaar genoeg worden. Mijn generatie zal het einde van de rolstoel meemaken. Die kan naar het museum. Ik denk dat we over tien jaar de eerste mensen in exoskeletten over straat zien lopen.”

Wat is tot nu toe de belangrijkste doorbraak geweest?

“Ongetwijfeld dat we sinds vorig jaar in staat zijn om de signalen van 2000 hersencellen tegelijk te registreren met een breinchip. In 1993 begonnen we met 26 hersencellen, in 2002 lukte het met 100 en in 2010 met 500. En van 2000 gaan we in de komende jaren naar tienduizenden hersencellen. Dat heeft grote gevolgen. Hoe meer hersencellen we kunnen ‘afluisteren’, hoe beter de patiënt controle krijgt over zijn exoskelet.”

Hoelang duurt het voordat de patiënten controle hebben over het exoskelet?

“Dat zullen we nog moeten zien, maar bij apen duurde het twee tot drie weken voordat ze dachten dat de virtuele robotarm die ze via hun breinchip konden aansturen een deel van hun eigen lichaam was geworden. Dat was met slechts een uur training per dag. Op grond daarvan verwacht ik dat mensen binnen een paar dagen het been van het exoskelet als een eigen been gaan waarnemen.”

Dit is een fragment van een interview, te vinden in KIJK 7/2013. Dit nummer ligt in de winkel van 31 mei tot en met tot en met 27 juni.

Tekst: Bennie Mols

Tuesday, June 4, 2013

"Begrip brein nodig voor intelligente machines"

MIT-hoogleraar Tomaso Poggio is een van de grondleggers van de computationele neurowetenschappen. Hij heeft zowel een diepgaande kennis van het brein als van de kunstmatige intelligentie. Gebaseerd op hoe het brein beelden waarneemt, heeft hij een computermodel gemaakt dat een dier op een plaatje net zo snel herkent als mensen dat kunnen. De computermodellen van Poggio liggen aan de basis van automatische visuele waarnemingssystemen die nu in auto’s worden ingebouwd. 

Dit artikel is gepubliceerd in technologietijdschrift De Ingenieur van 12 april 2013



Naam: Tomaso Poggio 
Leeftijd: 65
Titels: prof. dr.
Opleiding: Studeerde natuurkunde en promoveerde in 1971 in de theoretische natuurkunde aan de Universiteit van Genua (Italië). Van 1972 tot 1981 onderzocht hij het brein van de fruitvlieg bij het Max Planck Instituut voor Biologische Cybernetica in Tübingen (Duitsland).
Functie: Sinds 1981 werkt Poggio aan het Massachusetts Institute of Technology (MIT) in de VS. Hij is momenteel de Eugene McDermott Professor aan het Department of Brain and Cognitive Sciences van het McGovern Institute van MIT. Tevens is hij verbonden aan het Computer Science and Artificial Intelligence Lab (CSAIL) van MIT.



Ik vraag het Tomaso Poggio maar meteen: ‘Stel, de autonome auto van Google staat hier buiten voor de deur. Durft u, als iemand die zowel de sterke als de zwakke kanten van computervisie feilloos kent, in de auto te stappen en u te laten rondrijden?’

“O, absoluut”, antwoordt MIT-hoogleraar Poggio. “Ik zou me prima op mijn gemak voelen. In mijn eigen Audi zit trouwens al een radar-detectiesysteem. Ik stel de cruise control in op een bepaalde maximum snelheid en vervolgens auto houdt de auto een bepaalde afstand tot mijn voorligger. Het werkt zo goed, dat ik me geen zorgen meer maak. Soms vertrouw ik het systeem zelfs te veel. Het gebeurt wel eens dat een voorligger door het rood rijdt. Dan wil mijn auto ook door rood rijden. Hij herkent het rode licht niet, maar wil toch de afstand tot de voorligger gelijk houden. Gelukkig komen detectiesystemen die ook het rode licht herkennen er ook al aan.”

In de jaren negentig was Poggio een van de eersten die een computeralgoritme ontwikkelde dat voetgangers en andere straatobjecten in alledaagse beelden kon herkennen. Bij een snelheid van dertig beeldjes per seconde maakte het systeem eenmaal per seconde een fout. Voor een onderzoekssysteem in die tijd een grote prestatie. Maar voor praktische toepassing veel te slecht. Poggio: “Huidige computervisiesystemen maken in de orde-grootte van eens in vijftigduizend rij-uren een fout. Deze systemen kunnen levens redden. Geen wonder dat verzekeringsmaatschappijen inmiddels de premie beginnen te verlagen voor bestuurders die zo’n waarnemingssysteem in hun auto hebben.”

Poggio was ook een van de eersten die computervisie niet langer baseerde op volledig voorgeprogrammeerde regels, zoals decennialang tevergeefs is geprobeerd. Geïnspireerd door de werking van het menselijk brein bouwde hij een lerend systeem dat werd getraind met duizenden straatbeelden. Poggio: “De beste huidige computervisie gebruikt nog steeds dat basisidee, maar er zijn een heleboel lagen aan engineering bovenop gekomen. Bovendien bestaat de trainingsset tegenwoordig al snel uit miljoenen beelden.”

Poggio zelf is vooral geïnteresseerd in de fundamentele wetenschap die ten grondslag ligt aan lerende systemen. Zodra de toepassingen in zicht komen, dan laat hij het werk graag aan anderen over. Een van zijn voormalige post-docs, de Israëliër Amnon Shashua, heeft het bedrijf MobilEye opgericht. Dat bedrijf is inmiddels de belangrijkste leverancier van computervisiesoftware aan autofabrikanten als Audi, BMW en Toyota. Poggio: “De autonome auto van Google krijgt dan wel de meeste aandacht, maar praktisch gezien is een bedrijf als MobilEye veel belangrijker voor de implementatie van computervisie in auto’s.”

Einsteins genie
Als tiener was Tomaso Poggio, geboren en getogen in het Italiaanse Genua, gefascineerd door Einsteins relativiteitstheorie en door het genie van Einstein als persoon. “Dat je puur vanuit de theorie zulke diepe problemen als ruimte, tijd, massa en energie kon doorgronden, vond ik geweldig. Maar ik besefte dat er zoveel diepe problemen in de natuurkunde waren; veel te veel voor mij om ze op te lossen. Wat maakte Einstein zo intelligent? En wat nu als ik zelf intelligenter zou kunnen worden? Zo kwam ik op het idee dat als ik zou snappen wat intelligentie is, ik intelligentie misschien ook wel zou kunnen vergroten. Misschien zou ik dan een machine kunnen bouwen die mensen zou helpen intelligenter te worden zodat we al die moeilijke problemen zouden kunnen oplossen. Zo raakte ik geïnteresseerd in zowel de neurowetenschappen als in de computerwetenschappen.”

In de overlap van beide takken, de computationele neurowetenschappen, is Poggio een van ’s werelds meest geciteerde en gelauwerde wetenschappers. Hij is er van overtuigd dat de volgende stap in de ontwikkeling van kunstmatige intelligentie moet komen van een beter begrip van het menselijk brein. “Ja, we hebben nu Siri op de smartphone, we hebben Google Search, we hebben supercomputer Watson en we hebben computervisie zoals MobilEye. Dat zijn grote prestaties. Elk van deze systemen is net zo goed, of in het geval van Google Search zelfs veel beter, dan het menselijk brein. Maar wat nog steeds ontbreekt is een machine die intelligent is in de brede zin van het woord, in de zin van menselijke intelligentie. Een machine die in woorden kan vertellen wat er op een alledaagse beeld is te zien. Een machine die over het alledaagse leven kan praten. Kortom, een machine die zou slagen voor de Turing Test.”

Poggio verklaart die discrepantie uit het ontstaan van de kunstmatige intelligentie uit het werk van wiskundigen als Alan Turing en zijn voorgangers David Hilbert en Kurt Gödel. “Computers zijn ontstaan uit de logica en uit een poging om de wiskunde te formaliseren. Maar het type intelligentie dat deze wiskundigen probeerden te formaliseren, heeft niets te maken met het type intelligentie dat ons zenuwstelsel gebruikt. Computers zijn gebaseerd op een model van informatieverwerking waarin wij mensen helemaal niet goed zijn, zoals rekenen en logica. Computers zijn juist niet gebaseerd op het type intelligentie waarin wij mensen uitblinken: patroonherkenning op een associatieve manier, zoals we gebruiken bij visuele waarneming.”

Poggio vertelt een anekdote over Marvin Minsky, een van de grondleggers van de kunstmatige intelligentie: “Begin jaren zestig gaf Minsky het probleem van computervisie als zomerproject aan een van zijn studenten.” Hij laat even een stilte vallen en lacht dan hartelijk: “Een project voor een paar maanden!”

Wetenschappers zijn er er nu al meer dan een halve eeuw mee bezig. Omdat wij mensen zonder na te denken razendsnel de wereld om ons heen waarnemen, lijkt visuele waarneming zo’n simpel probleem. Maar het is niet voor niets dat zo’n dertig procent van de hersenschors in het menselijk brein wordt gebruikt voor visuele waarneming. De evolutie heeft haar handen vol gehad aan het vormgeven van efficiënte beeldverwerking. Daarom is visuele waarneming ook het modelsysteem dat Poggio gebruikt om uit te vinden wat intelligentie nu eigenlijk is. Als we begrijpen hoe ons visuele systeem waarneemt, dan begrijpen we volgens hem ook grotendeels welke hersenmechanismen ten grondslag liggen aan intelligentie.

Flitsherkenning
Op basis van onze kennis van de visuele waarneming door het menselijk brein, heeft Poggio een computermodel gebouwd dat net zo snel als mensen een dier op een plaatje herkent. Wanneer je een lange reeks foto’s snel achter elkaar aan menselijke proefpersonen laat zien, dan zijn ze bij elk beeld in staat om binnen vijftig tot honderd milliseconden te herkennen of er wel of niet een dier op staat. De plaatjes worden net lang genoeg getoond dat mensen zich bewust zijn van wat ze zien, maar kort genoeg om ze geen tijd te geven voor uitvoerige beeldinspectie. “Mensen voeren deze taak 80% correct uit. Ons model scoorde 82%. Dat was onverwacht goed. Wanneer mensen langer de tijd zouden krijgen, dan halen ze bijna 100%, maar omdat die bewuste beeldinspectie niet in ons model zat, hebben we ons gericht op het vergelijken van de snelle waarneming.”

Poggio’s model gebruikt een hiërarchie van waarnemingslagen. Op een basisniveau onderscheidt het model bijvoorbeeld randen van voorwerpen en de oriëntatie van lijnstukken. Hogere niveau’s onderscheiden vormen. De hoogste niveau’s onderscheiden bijvoorbeeld categorieën zoals dieren of voertuigen, en identiteiten zoals een kat of een auto.

Maar dan de stap van visuele waarneming naar intelligentie. Hoe hoopt Poggio daar een vinger achter te krijgen? “Cruciaal voor intelligentie”, zegt hij, “is de vaardigheid om te leren; om te generaliseren op basis van een klein aantal voorbeelden. Wanneer je vandaag een nieuw gezicht ziet, en je ziet het morgen opeens vanuit een heel andere hoek, in heel andere lichtomstandigheden, dan herken je het gezicht nog steeds. Het brein generaliseert met veel minder beelden dan computervisiesystemen nodig hebben.”

De afgelopen twee jaar heeft Poggio zich gestort op het ontwikkelen van een model dat een wiskundige beschrijving van een plaatje maakt, die onafhankelijk is van de toevallige omstandigheden waaronder de toeschouwer het beeld ziet. Deze wiskundige beschrijving blijft hetzelfde wanneer je het beeld een beetje draait, een beetje verplaatst of onder iets andere lichtcondities ziet. “Het laatste half jaar zijn daar hele mooie resultaten uitgerold. Het is een verrassend elegante wiskundige beschrijving. Het doet me weer denken aan de elegantie die je in de natuurkunde vindt. Fysici gaan uit van een bepaalde symmetrie of behoudswet en leiden daar bijvoorbeeld de wetten van de mechanica uit af. Onze theorie doet iets soortgelijks voor visuele waarneming. Uitgaande van enkele aannames kunnen we eigenschappen van hersencellen en netwerken van hersencellen afleiden. We kunnen voorspellingen doen over hoe het visuele systeem werkt en die voorspellingen zijn we nu aan het testen.”

Poggio wil nu de krachten bundelen om met een groot team van MIT-wetenschappers te ontrafelen wat intelligentie precies is en hoe het in machines gecreëerd kan worden. Hij heeft bij de Amerikaanse National Science Foundation (NSF) een voorstel ingediend voor het creëren van een nieuw MIT-instituut ‘Center for Brains, Minds and Machines’ dat al het MIT-onderzoek naar intelligentie − in de neurowetenschappen, de biologie, de kunstmatige intelligentie en in de psychologie − combineert. “Het gaat om een van de grootste NSF-subsidies. We hebben de laatste ronde gehaald en nog dit jaar horen we of we tot een van de winnaars behoren. Hoe dan ook, ik ben er van overtuigd dat het komende decennium een gouden tijd wordt voor intelligente machines, dankzij inzichten uit de neurowetenschappen.”

Internet
Website van Tomaso Poggio: http://bcs.mit.edu/people/poggio.html
Ter gelegenheid van het 150-jarig bestaan van MIT werd in 2011 het symposium ‘Brains, Minds and Machines’ georganiseerd. Dat symposium lag aan de grondslag van Poggio’s idee om al het MIT-onderzoek naar intelligentie te integreren: http://mit150.mit.edu/symposia/brains-minds-machines

Monday, May 27, 2013

Feit en fictie in de kunstmatige intelligentie

Op dinsdag 11 juni geef ik op het VINT-symposium over het 'Internet of Things' een lezing over Feit en fictie in de kunstmatige intelligentie.

Andere lezingen komen o.a. van astronaut André Kuipers en IT-journalist Brenno de Winter





Ik ga het onder andere hebben over:

- De mythe van exponentiële technologische vooruitgang
- De mythe van de Singulariteit
- De mythe dat kunstmatige intelligentie de menselijke intelligentie overbodig zou maken
- De paradox van de automatisering: Hoe meer we automatiseren, hoe crucialer ingrijpen door de mens wanneer de automatisering toch een fout maakt.

en over trends in de kunstmatige intelligentie:

- Mobiele apparaten gaan steeds meer de rekenkracht van het Internet gebruiken
- Computers gaan de wereld steeds meer zien zoals mensen de wereld zien
- Begrip van de werking van de menselijke hersenen gaat de kunstmatige intelligentie sterk vooruit helpen
- Steeds meer krijgen we symbiotische netwerken van mensen, computers en dingen
- De menselijke factor blijft cruciaal



De belangrijkste vraag is: hoe combineren we het beste van menselijke intelligentie met het beste van kunstmatige intelligentie?

Het beste van menselijke intelligentie: 

- patroonherkenning en -interpretatie
- alledaags begrip van de wereld
- sociaal-emotionele intelligentie
- cognitie die geworteld is in lichamelijkheid
- leren
- omgaan met vaagheden, ambiguïteiten, onzekerheden, verrassingen
- multifunctionaliteit
- creativiteit

Het beste van kunstmatige intelligentie: 

- razendsnelle informatieverwerking
- razendsnel zoeken
- enorm geheugen
- foutloos rekenen
- onvermoeibaar
- niet gehinderd door emoties of psychologische belemmeringen





Tuesday, May 7, 2013

E-mails, Facebook and Google make the Large Hadron Collider look like a dwarf

Big, Bigger, Biggest Data...


Only five years ago, in 2008, when CERN's Large Hadron Collider started to produce data, we thought of the LHC-data as Big Data. 

But already by the end of 2012 the LHC-data have been dwarfed by the data continuously generated by the world community, using telecommunication, Internet and its many social media and business applications.

The May-issue of WIRED shows a nice info graphic of Big Data. (data for 2012, given in terabytes (10^12 bytes) per year)



The annual amount of information in business-emails is almost two hundred times the annual LHC-data production.

The content annually uploaded to Facebook equals twelve times the annual LHC-data production.

Google's search index equals six times the annual LHC-data production.

And video's annually uploaded to YouTube more or less equal the annual LHC-data production.