Boeken

Friday, October 4, 2019

Machine learning is een must voor de deeltjesfysica

Hoe kun je nieuwe natuurkunde vinden zonder een model te hebben van die fysica? Machine learning is daarvoor essentieel, beweert deeltjesfysicus Sascha Caron. Hij past het toe in de zoektocht naar donkere materie.


Dit artikel is gepubliceerd in het NIKHEF-magazine Dimensies van oktober 2019. Het magazine is hier te downloaden

“Voor mijn kinderen is het heel normaal dat een auto zelf kan rijden, dat een machine hun vragen beantwoordt en dat een robot hen helpt om wetenschap te bedrijven. Deze nieuwe generatie denkt heel anders dan mijn generatie of nog oudere generaties. Dat zie ik ook in mijn vakgebied.”

Aan het woord is Sascha Caron, universitair hoofddocent deeltjesfysica aan de Radboud Universiteit Nijmegen en tevens verbonden aan het Nikhef. Hij is gespecialiseerd in data-analyse, in het bijzonder die bij de zoektocht naar donkere materie. Daarin is hij een van de pioniers in het gebruik van machine learning.

Caron: “Als je bij het Nikhef nu de vraag zou stellen wat het nut is van machine learning in de deeltjesfysica, dan zul je vaak antwoorden horen in de trant van: het is een hype, of: dat we doen al twintig jaar. Mijn eigen antwoord luidt: machine learning is een must, we doen er veel te weinig mee en veel te weinig fysici begrijpen het potentieel.”

Voor de deeltjesfysica ligt dat potentieel volgens Caron op vier terreinen: het beter classificeren van deeltjes en botsingsgebeurtenissen, het direct afleiden van fysica uit ruwe data, het vinden van nieuwe fysica zonder een model van die fysica te hebben, en tenslotte het fantaseren of − netter gezegd − bedenken van nieuwe fysica. Dat is nogal wat.

Machine learning is het onderdeel van de kunstmatige intelligentie waarin computers nieuwe taken leren in plaats van alleen maar voorgeprogrammeerde taken uitvoeren. Een van de eenvoudigste praktische toepassingen is een computer die leert om in je e-mailbox spam van niet-spam te onderscheiden zonder dat hem van te voren precies is verteld hoe een spam-bericht is opgesteld.

De meest populaire manier van machine learning gebruikt neurale netwerken. Dat idee is geïnspireerd op de manier waarop het menselijk brein leert en simuleert een netwerk van neuronen op een computer. Deze kunstmatige neuronen zijn met elkaar verbonden en tijdens het leerproces veranderen de ‘gewichten’ die aangeven hoe sterk twee neuronen met elkaar zijn verbonden.

Neurale netwerken bestaan al decennialang, maar boekten ook net zo lang nauwelijks succes. Dat veranderde in 2012 toen diepe neurale netwerken, met meer lagen van neuronen dan voorheen, het ineens veel beter bleken te doen bij het classificeren van voorwerpen in afbeeldingen dan alle andere methoden. Sindsdien duiken neurale netwerken ineens overal op, nu onder de naam deep learning: van beeld- en spraakherkenning tot medische diagnoses en robotica, en sinds een paar jaar ook in de natuurwetenschappen. Zo ontdekten astronomen in 2017 dankzij machine learning een nieuwe exoplaneet. Scheikundigen kunnen dankzij machine learning sneller interessante nieuwe materialen vinden.

Dankzij deep learning kunnen computers nu razendsnel en zonder moe te worden patronen in data herkennen. Soms zijn dat patronen die de mens ook wel zou herkennen, maar soms ook zijn dat subtiele patronen die de mens niet ziet. In 2016 deed go-computer AlphaGo tegen de beste go-speler van het decennium dankzij zijn zelflerende vermogen een zet die menselijke top-spelers als oerdom beschouwden, maar die achteraf geniaal bleek te zijn.

Geïnspireerd door de successen van deep learning op andere terreinen, ging ook een klein groepje deeltjesfysici ermee aan de slag in. In 2014 boekten zij het eerste succes. Ze lieten zien dat deep learning 8% beter dan alle andere methoden in staat was om in de data van botsingsdetectoren deeltjes te onderscheiden van achtergrondruis.

“Dat is mooi”, zegt Caron, “maar niet fundamenteel nieuw. Wat wel echt nieuw was, is dat deep learning daarvoor geen voorkennis over de fysica nodig heeft. De standaardmethode van classificeren heeft dat wel nodig. Traditioneel bedenkt een bepaalde groep theoretisch fysici variabelen die geschikt zijn om naar nieuwe natuurkunde te zoeken. Dat is de voorkennis. Ik durf wel te stellen dat het voor deze fysici na de publicatie in 2014 game over is. Zij gaan nooit meer variabelen bedenken die het beter doen in het classificeren dan een neuraal netwerk. Een diep neuraal netwerk heeft gewoon veel meer vrijheid om zich aan te passen aan de data.”

Het is de combinatie van diepe neurale netwerken, meer trainingsdata, betere simulatoren om trainingsdata zelf te maken, betere algoritmen om neurale netwerken te trainen en betere hardware die maken dat diepe neurale netwerken nu zo’n succesvol instrument kunnen zijn, ook in de deeltjesfysica. En dat terwijl in de jaren negentig neurale netwerken het niet beter deden in het classificeren van deeltjes en botsingsgebeurtenissen dan andere methoden.

“Helaas zitten veel fysici nog in hun hoofd met die oude neurale netwerken en zijn ze niet op de hoogte van de ontwikkelingen van de afgelopen vijf jaar”, zegt Caron. “Ik denk dat er wereldwijd zo’n vijftig deeltjesfysici bezig zijn de potentie van diepe neurale netwerken te ontdekken. Dat is veel te weinig. Het maakt het ook moeilijk om een cultuurverandering teweeg te brengen. Onderzoeksvoorstellen en papers worden vaak beoordeeld door natuur- en sterrenkundigen zonder kennis in machine learning. Dan is de kans groot dat ze niet begrijpen wat het nieuwe aspect is.”

Behalve het beter classificeren van deeltjes en botsingsgebeurtenissen, kan machine learning ook gebruikt worden om uit ruwe botsingsdata direct fysica af te leiden. Eigenlijk gaat de hele natuurkunde over het afleiden van nieuwe inzichten uit data. Machine learning kan daarbij enorm helpen. Caron: “Heel veel zaken die natuurkundigen nu op een conventionele manier doen, kunnen we waarschijnlijk beter doen met machine learning. Stel, een calorimeter in een deeltjesdetector meet de energieën van de deeltjes. De ruwe data bestaan dan uit een plaatje van op welke plek de calorimeter wat heeft gemeten. Dat plaatje kun je als ruwe data aan een diep neuraal netwerk geven en dat kan daar de relevante fysische parameters uit halen: welke deeltje is gemeten? welke energie heeft het? wat is de hoek van z’n baan?”

Nog spannender is dat machine learning nieuwe fysica kan vinden zonder een model te hebben van die fysica. Caron: “Tot en met de ontdekking van het Higgsdeeltje wisten deeltjesfysici meestal waarnaar ze zochten. Maar nu zijn we op een punt gekomen waarop we niet meer goed weten waarnaar we zoeken. We hebben misschien wel miljoenen mogelijke modellen voor donkere materie. Eigenlijk willen we alleen maar naar anomalieën zoeken, iets wat afwijkt van het standaardmodel.”

Juist daarvoor is machine learning geschikt. Caron trekt een vergelijking met het zoeken naar leven op andere paneten: “Stel, we trainen een diep neuraal netwerk om alle levende wezens op aarde te herkennen. Het heeft dan een algemeen begrip hoe leven eruit ziet. Vervolgens gaan we het gebruiken om op andere planeten te zoeken naar levende wezens. Dan kan het zomaar zijn dat het netwerk honderdduizenden dingen vindt die het niet kan reconstrueren uit al het aardse leven. Stel nu dat we een tweede netwerk trainen met alle aliens die in sciencefictionboeken voorkomen. In de deeltjesfysica is dat als het ware het netwerk dat door theoreten wordt getraind. Zij bedenken nieuwe fysica. Misschien zegt dit sciencefiction-netwerk wel dat 35 van die honderdduizend rare dingen op een andere planeet lijken op groene mannetjes met grote hoofden uit sciencefictionboeken. Dan zouden we de data daarvan verder kunnen onderzoeken. Dit is precies wat ik zelf doe met het zoeken naar donkere materie.”

Volgens Caron denken veel deeltjesfysici dat het echte werk zit in het bouwen van een detector en het doen van de experimenten en dat de data-analyse triviaal is. “Zo was het in de jaren 80 en 90 van de 20e eeuw, maar dat geldt al lang niet meer. Omdat we niet meer goed weten waarnaar we moeten zoeken, zijn de modellen veel complexer geworden. Daarnaast is de hoeveelheid gemeten data veel groter. En wel zo groot dat geen enkele klassieke analysemethode het beter doet dan machine learning. We moeten een heel ander beeld ontwikkelen over hoe we natuurkunde bedrijven. Een beeld waarin machine learning een krachtig instrument is.”

Internet
Sascha Caron: https://www.nikhef.nl/~scaron
Dark Machines is een onderzoekscollectief van natuurkundigen en data-wetenschappers: http://www.darkmachines.org
Project iDark van het eScience Center: https://www.esciencecenter.nl/project/idark





Tuesday, September 10, 2019

‘Slimme AI kan nóóit een mens worden’

Een mens is veel meer dan alleen intelligentie. Vier miljard jaar organische evolutie kun je niet namaken in silicium, zegt informaticus en psycholoog Joanna Bryson.

Dit artikel is gepubliceerd in NRC Handelsblad van maandag 9 september 2019


Het was 1993 en Joanna Bryson, eind twintig, ging onder de hoede van de beroemde roboticus Rodney Brooks werken aan een ambitieus project. Brooks wilde bij het Massachusetts Institute of Technology (MIT) een mensachtige robot bouwen: COG.

De ambitie: COG moest zichzelf ontwikkelen tot het niveau van een driejarig kind. COG had een metalen hoofd, een romp, twee armen en kreeg het postuur van Brooks’ inmiddels ook beroemde collega Cynthia Breazeal. Bryson ging aan de slag met het programmeren van het robotbrein.

De verrassing: „Keer op keer kwamen promovendi onafhankelijk van elkaar naar me toe om te zeggen dat ik zeker niet de stekker uit de robot mocht trekken. Dat vonden ze onethisch”, zo vertelt Bryson nu. Ze is in Nederland omdat ze dinsdag 10 september een lezing geeft op Tilburg University: ‘The Role of Humans in an Age of Intelligent Machines’. „Ik was geschokt. Elke hedendaagse spellingchecker is slimmer dan COG toen. Hoe kon het dat slimme mensen bezorgd waren om een robot, maar zich geen zorgen maakten om de daklozen die je in die tijd in de straten van Cambridge zag liggen? En als feministe vond ik het diep problematisch dat ze een robot meer rechten leken te geven dan een vrouw.

„Bij gebrek aan vooruitgang werd het project na anderhalf jaar stilgelegd. Een robot die zichzelf leert wat we toen met COG voor ogen hadden, bestaat trouwens nog steeds niet.”

Lees de rest van het artikel op de website van NRC Handelsblad

Thursday, July 25, 2019

AI in de journalistiek? Alstublieft: hier uw invalshoek

Lang werd gedacht dat journalistiek niet te automatiseren is. Een invalshoek kiezen, een bericht samenstellen – dat is toch alleen aan mensen besteed? Nieuwe tools doen een poging journalisten werk uit handen te nemen.



Dit artikel is gepubliceerd in NRC Handelsblad van dinsdag 23 juli 2019

Vergeet het idee dat robots, of beter gezegd bots, zelfstandig doorwrochte onderzoeksjournalistieke verhalen gaan schrijven. Vergeet ook het spookbeeld dat de journalistiek geheel overgenomen wordt door artificiële intelligentie (AI).

Maar bedenk vooral wel dat AI ook de journalistiek gaat veranderen en talloze nieuwe mogelijkheden biedt: voor het verzamelen van nieuws, het graven in grote databergen, het genereren van nieuwe invalshoeken, het produceren van content, de verificatie van informatie, voor nieuwsdistributie en het ontmaskeren van fake-nieuws. De moderne journalist moet mee.

Dat was de kernboodschap van de zomerschool AI & Journalism die de European Science-Media Hub samen met het European Youth Press Network van 4 tot 7 juni in het Europees Parlement in Straatsburg organiseerde. Zo’n zeventig studenten en journalisten uit twintig EU-landen werden in vier dagen wegwijs gemaakt in hoe AI de journalistiek aan het veranderen is. Grote mediabedrijven als Thomson Reuters, Bloomberg, The New York Times, The Washington Post, Deutsche Welle en de BBC doen het al. De kleinere kunnen de komende jaren niet achterblijven.

Lees het hele artikel op de website van NRC Handelsblad.

Friday, July 12, 2019

Computer heeft strakste pokerface

Na het winnen van dammen, schaken en go weet de computer nu ook met poker zijn menselijke tegenstanders te verslaan.


Dit artikel is gepubliceerd in NRC Handelsblad van vrijdag 12 juli 2019

Aan de menselijke superioriteit in poker is een eind gekomen. Pokercomputer Pluribus heeft de beste menselijke spelers verslagen in de meest gespeelde pokervariant: Texas Hold’em voor zes spelers. Het is een nieuwe mijlpaal in de kunstmatige intelligentie. De ontwikkelaars van Pluribus, informaticahoogleraar Tuomas Sandholm en zijn promovendus Noam Brown van Carnegie Mellon University, publiceren hun bevindingen in Science van deze week. De publicatie valt samen met de World Series of Poker in Las Vegas.

„Serieus pokeren gaat net zo min over gokken als bergbeklimmen gaat over het nemen van risico’s”, schreef de Britse dichter en pokerspeler Al Alvarez. Het is de combinatie van toeval en tactiek die pokeren zo lastig maakt, niet alleen voor mensen, maar tot voor kort ook voor de slimste computers.

Poker onderscheidt zich van bordspelen zoals dammen, schaken en go, waarin de computer de mens al eerder de baas was. Het verschil zit in onvolledige informatie (de spelers zien de kaarten van hun tegenstanders niet), een toevalselement (de kaarten die elke speler krijgt), bluffen (doen alsof je betere kaarten hebt dan in werkelijkheid) en het aantal van zes spelers. Dat alles vergroot de spelcomplexiteit. Het maakt ook dat poker veel meer op het alledaagse menselijke leven lijkt – bijvoorbeeld bij zakelijke of politieke onderhandelingen – dan schaken of go.

Lees het hele artikel op de website van NRC Handelsblad

Monday, July 1, 2019

Algoritmen verdienen ’n eerlijke kans

Steeds vaker nemen computers beslissingen over mensen. Dat kan goed en fout gaan. Hoe combineer je de sterke punten van algoritmen met die van mensen?



Dit artikel is gepubliceerd in NRC Handelsblad van zaterdag 29 juni 2019

In oktober 2018 besloot het bedrijf Amazon te stoppen met het gebruik van een algoritme voor het inhuren van personeel. Het algoritme bleek vrouwen stelselmatig te benadelen ten opzichte van mannen. Dit is slechts een van de vele voorbeelden uit de afgelopen jaren waarin algoritmen bleken te discrimineren bij beslissingen over mensen.

Algoritmen, de ‘rekenrecepten’ die een computer gebruikt, nemen steeds vaker beslissingen over mensen. In de zorg, bij de overheid, in het onderwijs of bij banken en verzekeraars. En dat raakt aan de menselijke autonomie. Wat willen we aan machines overlaten, wat aan de mens?

De verontwaardiging over de discriminatie door het Amazon-algoritme was vorig jaar groot. Begrijpelijk, maar ook kortzichtig, vindt Sendhil Mullainathan, hoogleraar informatica en gedragswetenschappen aan de universiteit van Chicago en een expert op het gebied van algoritmische beslissingen. „Een algoritme is niet alleen maar een stuk gereedschap”, zegt hij in een Skype-interview. „Het is ook een beetje als een geigerteller. Als je rondloopt met een geigerteller en hij begint ergens hard te tikken, dan moet je de teller niet de schuld geven. Hij vertelt je dat er straling is. Iets soortgelijks geldt voor een algoritme.”

De discriminatie door het Amazon-algoritme liet namelijk zien dat de Amazon-personeelsfunctionarissen jarenlang bevooroordeeld zijn geweest tegenover vrouwen. Want met hun oordelen was het algoritme getraind, zegt Mullainathan. „Telkens als een algoritme bevooroordeelde uitkomsten blijkt te geven, moeten we ons natuurlijk zorgen maken over het algoritme, maar nog meer over hoe mensen zulke beslissingen nemen.”

Lees het hele artikel op de website van NRC Handelsblad

Thursday, June 20, 2019

How Computation is Changing Journalism

This article was published by the Communications of the ACM.


Nicholas Diakopoulos grew up being exposed to journalism, as his father was a journalist. The younger Dikopoulos decided he wanted to study computer science, and completed a Ph.D. in the field at the Georgia Institute of Technology (Georgia Tech). Midway through his doctorate, he started to think about combining journalism and computation into a new field: computational journalism.

Today, Diakopoulos is an assistant professor in communication studies and computer science at Northwestern University; he also serves as director of the university's Computational Journalism Lab.

In his new book Automating the News: How Algorithms Are Rewriting the Media, Diakopoulos explores the new field of computational journalism, which he has been helping to establish since 2007. The book makes clear how algorithms are changing the journalistic production pipeline from information gathering to sense-making, story-telling, and finally news distribution. Artificial intelligence (AI) already is used to personalize article recommendations, summarize articles, mine data in documents, transcribe recorded interviews, automate content production, moderate comments, and to eliminate (but unfortunately, also to produce) fake news.

What should all journalists know about your book?

A lot of journalists who don't understand how artificial intelligence works might feel threatened: 'oh, AI bots are going to write all our stories. We will be out of work'. In my book, I show over and over again that the cognitive labor of journalists is very difficult to completely automate. There are, of course, bits and pieces that can and will be automated, but more important will be the hybridization of AI with journalists. Jobs in journalism will not disappear, but instead will change.

Read the full article on the website of the ACM.

Saturday, June 15, 2019

Podcast Robotisering: een kansrijke toekomst voor iedereen?

Robots zijn slimmer dan wij, sterker dan wij en voor je het weet stelen ze onze banen en nog veel erger: onze autonomie. Het is maar een greep uit de doemscenario’s die voorbij komen. Maar wat is waar? Is er nog zoiets als een arbeidsmarkt in de toekomst en wat is de rol van de overheid om dit alles in goede banen te leiden?



Op 13 juni vertelde ik in een podcast van de Mr. Hans van Mierlo Stichting over robotisering.

Beluister de opname hier.