Monday, August 25, 2014

Alle ins en outs van de wet van Moore

Sommige wetenschappers wacht eeuwige roem. Zij verbinden hun naam aan een wet, een principe of een stelling. Wat deden zij en wat is hun werk nu nog waard? De NTR-radio Zomerserie ‘Op de schouders van reuzen’ gaat over wetenschappelijke grootheden en hun hedendaagse opvolgers.

Op maandag 25 augustus stond 'De wet van Moore' centraal. Jos Benschop, senior vice president technologie bij ASML, en ik waren te gast om over heden, verleden en toekomst van de wet van Moore te praten.

Beluister hier de hele uitzending.



Hieronder zet ik de belangrijkste ins en outs van de wet van Moore op een rij:

Wat is de wet van Moore?

Gorden Moore, mede-oprichter van chipfabrikant Intel, voorspelde in 1975 dat ongeveer elke twee jaar het aantal transistoren op een chip verdubbelde. Hij deed dat op basis van observaties. (Sommigen zeggen elke 18 maanden, maar Moore zelf heeft het altijd over twee jaar.) Hierdoor zouden computers elke twee jaar tweemaal zo snel worden.

Wat Moore oorspronkelijk als een beschrijving had bedoeld, werd meer en meer een voorspelling die de chipindustrie voortdreef. Die voorspelling is in de afgelopen vijf decennia redelijk juist gebleken, deels omdat de ‘wet’ voor chipfabrikanten een doel op zichzelf werd: een self-fulfilling prophecy dus.

Waarom is de wet van Moore belangrijk?

De wet van Moore is de drijvende kracht achter de belangrijkste technologische en sociale veranderingen van eind 20e/begin 21e eeuw: toepassingen van computer en internet.

Nice to know

Twee Nobelprijswinnende uitvindingen liggen aan de basis van de wet van Moore: de transistor en de chip.

De transistor werd in 1947 uitgevonden door Bardeen, Brattain en Shockley. Nobelprijs Natuurkunde 1956. De transistor is een elektronische 0/1-schakelaar gemaakt van silicium. Hiermee werd de miniaturisatie van de computer mogelijk. Grote voordeel van de transistor: hij kan tegen een stootje, gaat lang mee en is klein en goedkoop te maken. Het 0/1-karakter van de transistor maakt het rekenen intrinsiek digitaal.

In 1958 werd op basis van die transistor de eerste chip gebouwd: een geïntegreerd circuit: alle componenten van een elektronische schakeling zijn geïntegreerd gefabriceerd op een plakje silicium. Uitvinding van Kilby en Noice. Nobelprijs Natuurkunde 2000 voor Jack Kilby.

Hoe lang blijft de wet nog geldig?

Naar verwachting nog 10-20 jaar, maar niemand weet dat precies. Het is de ‘billion dollar question’. Duidelijk is wel dat er een natuurkundige limiet is. We kunnen geen dingen kleiner dan atomen maken. En op een gegeven moment worden componenten zo klein dat kwantumeffecten roet in het eten gaan gooien. Hoe kleiner je transistoren maakt, hoe onbetrouwbaarder ze worden. Verder is het maken van computerchips beperkt door hoe precies je met licht op een siliciumschijf kunt schrijven. Nu is het minimum iets in de orde van 23 nanometer, maar voor de meeste commerciële chips een stuk meer.

Nederland is heel belangrijk als het gaat om het in stand houden van de wet van Moore

Het Nederlandse hightechbedrijf ASML(Veldhoven) is de grootste producent ter wereld van machines die computerchips op siliciumschijven printen. Grote chipfabrikanten zoals Intel, Samsung en TSMC gebruiken ASML-machines om hun eigen computerchips te fabriceren. Deze chips zitten in bijvoorbeeld de nieuwste iPhones en iPads.

De wet van Moore gaat alleen maar over hardware. Een computer is toch meer dan alleen hardware?

Natuurlijk. De ontwikkeling van computers vindt plaats langs drie lijnen: hardware, software en computerarchitectuur. Helaas is er geen wet van Moore voor software. Sterker nog, volgens de wet van Wirth wordt software sneller langzamer dan hardware sneller wordt. Dat computerchips elke twee jaar tweemaal zo snel worden, betekent dan ook niet dat we het werk dat we met een computer doen tweemaal zo snel kunnen uitvoeren.

Lang niet altijd is sneller rekenen nodig voor nieuwe innovaties

Veel apparaten - van mobiele telefoons tot wasmachines en stofzuigers hebben een chip - maar die hoeft lang niet altijd ingewikkeld en razendsnel te zijn. Chips in een auto moeten vooral superbetrouwbaar zijn en heel robuust. Voor mobieltjes is het vooral van belang dat de chips ruisvrij zijn en goed met analoge signalen kunnen omgaan.

Digitale computers zijn - met dank aan de wet van Moore - zeer succesvol, maar hebben toch een paar fundamentele problemen. Naarmate we dichter bij het einde van de wet van Moore komen, gaan we daar steeds meer tegenaan lopen:
  1. energie: een supercomputer verbruikt al snel enkele megawatt aan energie, terwijl het menselijk brein slechts twintig watt verbruikt 
  2. software: vooral voor rekentaken waarbij massaal parallel gerekend moet worden, wordt de software een steeds groter probleem. 
  3. betrouwbaarheid: Transistoren die steeds kleiner worden, worden ook steeds onbetrouwbaarder. 
  4. snelheid: een computersimulatie van een biologisch proces verloopt zelfs op de snelste supercomputer typisch een factor honderd tot duizend trager dan het biologische equivalent. 
  5. compactheid: een supercomputer is een onhandig groot bakbeest vergeleken met het compacte menselijke brein van anderhalve liter. 
Deze beperkingen zijn de reden dat analoge computers een terugkeer aan het maken zijn:

In principe kan een digitale computer alles wat een analoge computer ook kan. Maar of de digitale computer dat ook in de praktijk voor elkaar krijgt, daarop weet niemand nog een antwoord. Het zou heel goed kunnen dat de digitale computer de massale parallelle informatieverwerking zoals het brein dat doet, niet binnen afzienbare tijd voor elkaar krijgt.

Wet van Moore gaat al een tijd niet meer op voor de computerprestaties als geheel 


De huidige generatie computers gebruikt meerdere chips naast elkaar. Twee chips verdubbelt het aantal transistoren, maar dat geldt lang niet voor de rekenprestatie.

Volgens futurist Ray Kurzweil leidt de wet van Moore tot de Singulariteit: het moment waarop computers slimmer zijn geworden dan mensen. Volgens Kurzweil gebeurt dat rond 2035. Hoe realistisch is dit?

Kurzweil betoogt dat alle technologische of evolutionaire vooruitgang exponentieel snel verloopt, waardoor de tijd tussen twee opeenvolgende doorbraken steeds korter wordt; bijvoorbeeld twee miljard jaar van het allereerste leven tot het ontstaan van cellen, en maar veertien jaar van de eerste pc tot het World Wide Web. De wet van Moore is voor Kurzweil een speciaal geval van deze veel algemenere wet van versnellende technologische doorbraken. 



Kurzweil betoogt dat de exponentiële toename van de rekensnelheid van computers onvermijdelijk leidt tot het moment waarop machines slimmer worden dan mensen: “Wij moeten beseffen dat onze aangeboren, biologische intelligentie vast ligt. De mensheid als geheel moet het doen met 1026 rekenoperaties per seconde, en wij zijn spoedig met tien miljard mensen. Over vijftig jaar zal de biologische intelligentie van de mensheid nog steeds ruwweg even groot zijn. Kunstmatige intelligentie haalt vandaag de dag een miljoen maal minder dan die 10^26 rekenoperaties per seconde, maar groeit wel exponentieel. Hoewel het dus lijkt alsof de menselijke intelligentie domineert, wat nu ook nog zo is, zal de kunstmatige intelligentie de menselijke intelligentie rond 2030 inhalen en haar daarna voorbij schieten.”

De Singulariteit heeft veel weg van technoreligie. Het is vooral een geloof. Bomen groeien echter nooit tot de hemel. Ik zie de Singulariteit vooral als een provocerend idee. Een leuk gedachte-experiment zonder veel werkelijkheidszin.

Argumenten tegen de Singulariteit:
  1. Wet van Moore is observatie, geen natuurwet. Hoewel Kurzweil denkt dat het massaal parallel rekenen op moleculair niveau in driedimensionale chips het leven van de wet van Moore met vele decennia gaat verlengen, is het maar de vraag in hoeverre dat gaat gebeuren. 
  2. Wet van Moore gaat al niet meer op voor de computerprestaties als geheel 
  3. Wet van Moore is geen panacé voor alles: zie bv. chaotische karakter van het weer. Welke netwerken van genen zijn op welke plek in het brein en voor welke functies belangrijk? Hoe zorgen lokale netwerken van hersencellen ervoor dat wij kleuren waarnemen? Hoe zorgen globale netwerken van hersencellen ervoor dat wij ons bewust zijn? Allemaal nog onopgeloste vragen. 
  4. Het aantal rekenoperaties per seconde heeft wel iets te maken met intelligentie, maar menselijke intelligentie is zeker niet equivalent aan, of zelfs maar evenredig met, het aantal rekenoperaties per seconde. De supercomputers Deep Blue en Watson voeren veel meer rekenoperaties per seconde uit dan respectievelijk Garry Kasparov en Ken Jennings, maar dat betekent helemaal niet dat ze intelligenter zijn dan hun menselijke opponenten. 
  5. Iets wat theoretisch mogelijk is, hoeft nog lang niet praktisch mogelijk te zijn. 
  6. Lichaam en geest kun je niet uit elkaar trekken. geest wordt geproduceerd door het brein en dat is een integraal onderdeel van het lichaam (embodied cognition) 
  7. Fundamentele wetenschappelijke vragen, of ze nu gaan over weer en klimaat of over brein en heelal worden niet opgelost door snellere computers of door computers met een groter geheugen, maar door slimme wetenschappelijke experimenten en theorieën, door menselijke creativiteit. Het verloop van deze wetenschappelijke ontwikkelingen is nog onvoorspelbaarder dan de beurskoersen. 
Veel wetenschappers van naam en faam vinden de Singulariteit niet meer dan een provocerend idee, maar volkomen onrealistisch. Interessant is dat ook Gordon Moore totaal niet gelooft in de Singulariteit.

Is het brein een computer?

Nee, dat is een slechte metafoor. Er zijn heel veel verschillen tussen brein en computer:
  1. Het brein kent geen onderscheid tussen hardware en software 
  2. Het brein kent zelforganisatie, zelfreparatie en groei 
  3. Het brein is verbonden met een lichaam 
  4. Het brein staat continu in verbinding met de buitenwereld 
  5. Het brein functioneert op een gigantische parallelle en niet-modulaire manier 
  6. Het brein heeft geen adresseerbaar geheugen 
  7. Het brein heeft geen systeemklok 
  8. Het brein is geen verzameling identieke logische schakelaars 
  9. Het brein werkt analoog 
  10. Het brein is zeer energie-efficiënt 
Waar computers veel beter in zijn dan menselijk brein:

1. Supersnel en feilloos rekenen

2. Enorm groot en feilloos geheugen

3. Razendsnel zoeken in grote databergen

4. Onvermoeibaarheid

5. Goed in exacte feiten

6. Geen last van psychologische belemmeringen

Waar computers (vooralsnog) slechter in zijn dan menselijk brein:

1. Leren

2. Patroonherkenning en -interpretatie

3. Cognitie die geworteld is in lichamelijkheid (taal is niet alles)

4. Sociaal-emotionele intelligentie (lichaamstaal, oogcontact)

5. Vaagheden, ambiguïteiten, onzekerheden, verrassingen

6. Multifunctionaliteit

7. Creativiteit

Kunnen we het brein op een computer simuleren?

Dat ligt er aan wat je onder simuleren verstaat. Een computer die een aantal cognitieve taken uitvoert die enigszins lijken op wat het brein doet, dat lukt nu al. Maar dat is nog heel ver weg van het exact biologisch simuleren. De energie die een supercomputer nu nodig heeft om informatie van de ene gesimuleerde hersencel naar de andere gesimuleerde hersencel te sturen is honderdmiljoen maal een miljoen keer (een 1 met 14 nullen) zo veel als in onze hersenen.

Hoe gaat het verder na de wet van Moore? 

  1. driedimensionale chips - nog onduidelijk hoe we die moeten maken. Warmte-ontwikkeling is een probleem. 
  2. optische computers 
  3. kwantumcomputers 
  4. biocomputers: rekenen op basis van DNA of RNA (blijkt in de praktijk nogal inefficiënt)
  5. neuromorphic computing: analoge computers gebaseerd op architectuur van het brein. geen onderscheid meer tussen rekeneenheid en geheugen. 

Niemand weet hoe computers er over 50 jaar zullen uitzien…
 

Saturday, August 16, 2014

Why I love the ‘leave-me-alone’ box

We humans are programmed by nature:

IF (the telephone rings) OR (an e-mail arrives) OR (a text message pops up)

{Somebody wants to catch the attention of your universe}

THEN you behave like Pavlov’s dog

{In the Digital Age we have all become Pavlovian information dogs}

STOP

But then your conscious you interrupts your unconscious you and you think: “leave me alone”.

Do you know that this feeling has been materialized in the brilliantly simple ‘leave-me-alone’ box?

Machines are built to perform useful tasks. Not so for the ‘leave-me-alone’ box. All it does when you switch it on…is to switch itself off. And it does this in a beautiful mechanical way: a small hammer pushes the switch back to the off-mode. Here you can see it at work:


When the first computers were just being born − in the 1950’s − artificial intelligence pioneer Marvin Minsky came up with the idea for this box. In 1952 he wanted to call it the ‘The ultimate machine’. 'Ultimate', because it’s the simplest ‘digital’ machine that does something, but what is does is also the simplest thing: namely to turn itself off.

Additional beauty: the ‘digital’ machine does this in a mechanical (so analog) way.

As we humans love to anthropomorphize our machines, somebody named it the ‘leave-me-alone’ box. The rest is history. YouTube-views of only the previous video reaches over ten million. Geeks love the ‘leave-me-alone’ box.

Over the decades people have built their own versions of the ‘leave-me-alone’ box. Here you can find ten bizarre useless machine. And this is a great one built with LEGO:



But nothing beats the most naked version of the ‘leave-me-alone’ box:

0 stays 0. Forever.

Turn the machine to state 1 (ON), and 1 turns into 0 (OFF) right away: “leave me alone”. A digital universe with 0 as the only stable state of mind.

No machine can be more Zen than the ‘leave-me-alone’ box.