Tuesday, May 1, 2018

Deep learning is zeer succesvol, maar maakt van computers nog lang geen mensen

Lerende computers stapelen al vijf jaar lang succes op succes. Maar hun beperkingen worden ook steeds duidelijker.

Dit artikel is gepubliceerd in het mei-nummer van De Ingenieur 

Wie de afgelopen jaren het nieuws over kunstmatige intelligentie ook maar een beetje heeft gevolgd, ontkwam niet aan de schijnbare magie van ‘deep learning’, een techniek waarmee computers nieuwe dingen leren (zie kader). Dankzij deep learning versloeg een go-computer de menselijke wereldkampioen. Apple gebruikt de techniek in de spraakherkenning van telefoonhulpje Siri, Facebook tagt er automatisch foto’s mee en Google Translate vertaalt er teksten mee. Vorig jaar ontdekten sterrenkundigen mede dankzij hun lerende computers twee nieuwe exoplaneten in de data van de Keplertelescoop.

So far so good. Hoe breder deep learning echter wordt uitgerold, hoe vaker ook haar beperkingen komen bovendrijven. Begin dit jaar publiceerde de Amerikaanse hoogleraar psychologie Gary Marcus een artikel dat inzoomt op precies die beperkingen (https://arxiv.org/abs/1801.00631). Het artikel leidde tot duizenden reacties op Twitter en een levendig inhoudelijk debat. Marcus is niet zomaar iemand die vanaf de zijlijn commentaar geeft. Hij richtte in 2015 zijn eigen bedrijf Geometric Intelligence op, dat computers efficiënter wilde laten leren. Eind 2016 verkocht hij het aan Uber.

Marcus weet waar hij het over heeft, en hij kreeg behalve kritiek (onder andere dat hij te weinig de successen vierde) ook veel bijval. Zelfs de vader van deep learning, de Britse cognitief psycholoog en informaticus Geoffrey Hinton, zei dat er waarschijnlijk geheel nieuwe methodes uitgevonden moeten worden om computers echt mensachtige intelligentie te laten vertonen.

Het gevaar van het succes van deep learning is dat al te veel mensen zijn gaan geloven dat zulke kunstmatige mensachtige intelligentie om de hoek ligt. Dat leidt weer om de haverklap tot zwaar overtrokken nieuwskoppen als deze van CNN: “Computers are getting better than humans at reading” (http://money.cnn.com/2018/01/15/technology/reading-robot-alibaba-microsoft-stanford/index.html). Wie iets dieper graaft, ziet meteen dat de computer helemaal geen leesbegrip heeft ontwikkeld, maar wel op bepaalde vragen over Wikipedia-teksten de relevante tekstpassages kan markeren. Best knap, best nuttig, maar het is maar een klein onderdeel van wat het betekent om begrijpend te lezen.

De Canadese hoogleraar en deep-learning-expert Yoshua Bengio zei over zulke overdrijvingen vorig jaar: “We zijn nog steeds heel ver van kunstmatige intelligentie op menselijk niveau.”

Datahonger

Van alle wetenschappers heeft Marcus tot nu toe het meest zijn best gedaan om ook de beperkingen van deep learning expliciet te maken en voorstellen te doen voor verbeteringen.

Eerst de beperkingen. Deep learning heeft een onverzadigbare honger naar data. Hoe meer data, hoe beter de techniek werkt. Maar met weinig data staat deep learning met de mond vol tanden. En dat is in de echte wereld een probleem, omdat er voortdurend situaties opduiken die niet eerder zijn gebeurd. Een baby leert uit slechts enkele voorbeelden het gezicht van zijn moeder of vader te herkennen. Op een of andere manier kan het menselijk brein uitgaande van weinig voorbeelden abstraheren en generaliseren. Informaticahoogleraar Stuart Russell van de Universiteit van Berkeley (VS) zei over de datahonger: “Voor de meeste toepassingen, zoals in de gezondheidszorg of het onderwijs, hebben we modellen nodig en niet alleen veel data.”

Daarnaast ontdekt deep learning weliswaar correlaties in data, maar niet automatisch de oorzakelijke verbanden. Uit de data van het aantal verdrinkingen per seizoen en de ijsjesverkoop per seizoen zou de techniek concluderen dat er een sterk verband is tussen het aantal verdrinkingen en het aantal verkochte ijsjes. Dat die twee geen oorzakelijk verband met elkaar hebben, maar veroorzaakt worden door hoge of lage temperaturen, komt er niet uit rollen.

Dit probleem heeft op haar beurt weer een dieper liggende oorzaak: deep learning-systemen beschikken tot nu toe niet over wat we vaak ‘gezond verstand’ noemen: de grote hoeveelheid alledaagse, impliciete achtergrondkennis die mensen van jongs af aan hebben opgebouwd en voortdurend blijven uitbreiden. In de zestigjarige geschiedenis van kunstmatige intelligentie is er maar weinig vooruitgang geboekt om computers te voorzien van dit soort ‘gezond verstand’-kennis. Zoals Marcus schrijft: “Deep learning loopt vast in nieuwe problemen die een open einde hebben. Wat is de beste manier om een fiets te repareren waarbij een stuk touw tussen de spaken is gekomen? Geen bestaande trainingsset gaat ons dat vertellen.”

Deep learning werkt heel goed wanneer computers spellen zoals go spelen, omdat de spelregels exact bekend zijn en nooit veranderen. Maar de echte wereld verandert voortdurend en ook dat is een probleem. Bij elke verandering moet de computer eerst wachten tot er miljoenen nieuwe voorbeelden beschikbaar zijn om van te leren. Deep learning werkt goed in een statische maar niet in een dynamische wereld.

Deep learning kan vaak ook gemakkelijk en op bizarre manieren voor de gek worden gehouden. Onderzoekers van Google ontwikkelden vorig jaar een psychedelische sticker die beeldherkennende computers fopte. De computers herkennen normaal gesproken prima een banaan of een pen. Maar plak de psychedelische sticker naast een banaan of een pen, en de computers zien ze allebei voor een broodrooster aan. Dat zou een vierjarig kind nooit gebeuren. Wanneer een zelfrijdende auto straks net zo gemakkelijk te foppen is, kan dat desastreuze gevolgen hebben.

Ten slotte is een probleem van alle beslissingen die met deep learning worden genomen dat ze niet transparant zijn. Waarom heeft de computer precies die en niet een andere beslissing genomen? Zelfs de programmeurs kunnen dat zelden uitvogelen omdat de informatie op een diffuse manier verspreid ligt in het neurale netwerk. In dit opzicht zijn deep-learning algoritmen zwarte dozen. En als ze dat al voor programmeurs zijn, zijn ze dat zeker voor burgers, politici en rechters.

Voor het gebruik van bijvoorbeeld Google Translate mag dat black-box-karakter dan nauwelijks een probleem zijn, dat geldt niet zodra deep learning-algoritmen worden gebruikt om te bepalen wie wel of niet een bepaalde lening krijgt, of een medische scan wel of niet een bepaalde tumor toont, of iemand wel of niet op de no fly-lijst van een vliegtuigmaatschappij hoort en of een medewerker zodanig onderpresteert dat hij ontslagen mag worden. Van al deze toepassingen zijn in de afgelopen jaren praktijkvoorbeelden opgedoken waarin computers de verkeerde beslissingen over mensen namen.

Uitgangspunt zou daarom moeten zijn dat hoe groter de potentiële gevolgen van een computerbeslissing voor burgers of consumenten zijn, hoe beter uitgelegd moet kunnen worden waarom de computer die beslissing heeft genomen. Dat principe staat ook aan de basis van een nieuwe Europese wet die op 25 mei 2018 van kracht wordt: de General Data Protection Regulation (GDPR). Werk aan de winkel dus voor overheidsinstanties en bedrijven die hun deep learning-algoritme belangrijke beslissingen over mensen willen laten nemen.

Intelligentie is meer dan perceptie
Deep learning is een prachtige techniek en we gaan er nog vele jaren plezier aan beleven, maar de toepassingen zijn beperkter dan de meeste media tot nu toe hebben gemeld. Om tot kunstmatige mensachtige intelligentie te komen hebben we andere technieken en nieuwe inzichten nodig, daarover zijn de meeste onderzoekers binnen de kunstmatige intelligentie het wel eens. Marcus vat dat als volgt samen: “Deep learning is goed in sommige aspecten van perceptie, vooral categoriseren. Maar perceptie is meer dan categoriseren en intelligentie is meer dan perceptie. Tot intelligentie behoren ook taal, redeneren, analogieën leggen, plannen en gezond verstand.”

Marcus doet een aantal voorstellen om kunstmatige intelligentie een volgende stap te laten zetten richting mensachtige intelligentie. De eerste is dat lerende computers minder door mensen bij de hand genomen moeten worden en meer op eigen houtje moeten kunnen leren. De meeste toepassingen van deep learning gebruiken nu nog data die door mensen van een label zijn voorzien. Computers die objecten op foto’s herkennen, zijn getraind aan de hand van losse foto’s van objecten als handen, honden en huizen. Hierbij hebben mensen handmatig van te voren al hebben aangegeven: ‘dit is een voorbeeld van een hand, dit van een hond en dit van een huis’.

Mensen leren ook deels zo, maar kunnen daarnaast ook nieuwe dingen leren zonder dat iemand ze bij de hand neemt. Marcus: “Kinderen creëren soms voor zichzelf een nieuwe taak, zoals een toren van lego-blokjes bouwen of door een kleine opening klimmen, zoals mijn dochter recent deed toen ze door de open ruimte tussen de zitting en de rug van een stoel wilde kruipen. Dit soort exploratieve probleemoplossing vereist het zelfstandig stellen van doelen en het integreren van abstracte kennis, zoals hoe lichamen en voorwerpen zich gedragen en welke verschillende soorten openingen er zijn.”

De tweede uitbreiding die volgens Marcus nodig is, is het oppoetsen van de klassieke manier waarop de kunstmatige intelligentie eind jaren vijftig begon: het redeneren op basis van expliciet geprogrammeerde regels. Marcus: “Met de tweede wet van Newton − kracht = massa × versnelling − kunnen we krachten berekenen voor alle mogelijke massa’s en versnellingen, niet alleen voor massa’s en versnellingen die eerder al eens in een dataset zijn voorgekomen. De juiste manier om vooruit te komen zou kunnen zijn om deep learning, dat uitblinkt in classificeren, te integreren met symbolische systemen, die uitblinken in redeneren en abstraheren.”

Marcus trekt een vergelijking met wat we weten over de werking van het menselijk brein. Het hersengedeelte dat waarnemingen verwerkt, doet dat ongeveer op de manier van deep learning. Maar andere gebieden in het brein, zoals het gebied dat spraak produceert of het gebied dat zich met planning van handelingen bezig houdt, lijken op een veel hoger abstractieniveau te werken.

Er is geen enkele noodzaak om het menselijk brein een-op-een op een computer na te bootsen om tot kunstmatige mensachtige intelligentie te komen, maar het gebruiken van inzichten uit onder andere de psychologie, de linguïstiek, de neurowetenschappen en de filosofie ziet Marcus wel als een noodzaak − en met hem een groeiend aantal andere wetenschappers. Geoffrey Hinton, de vader van deep learning, zei vorig jaar: “De wetenschap schrijdt met één begrafenis per keer voort. De toekomst hangt af van een student die alles wat ik heb gezegd betwijfelt.”

---------------------------------------------------------------------------------

Kader - Wat is Deep Learning?

Deep learning is de nieuwe naam voor wat al decennialang bekend staat onder de naam ‘neurale netwerken’. In essentie is deep learning een statische methode die patronen herkent in grote hoeveelheden data. En die data kunnen van alles zijn: getallen, tekst, geluid of beeld. De manier waarop dat leren gebeurt is een sterk vereenvoudigde versie van de manier waarop het menselijk brein leert. Een netwerk van kunstmatige neuronen wordt verdeeld in lagen. De neuronen worden met elkaar verbonden en de sterkte van die verbindingen verandert tijdens het leerproces. Elke laag neemt een deel van de patroonherkenning voor zijn rekening. Stel dat een netwerk getraind wordt om beelden te herkennen, dan detecteren diepere lagen de meest basale beeldeigenschappen, bijvoorbeeld randen. Hogere lagen detecteren complexere vormen. En de hoogste lagen herkennen uiteindelijk complete voorwerpen. De term ‘deep’ slaat op het aantal lagen van het neurale netwerk. Traditionele neurale netwerken bestonden slechts uit een handvol lagen. Diepe neurale netwerken tellen tientallen tot soms zelfs honderden lagen. Deep learning kon pas een succes worden met de beschikbaarheid van grote hoeveelheden data om van te leren, en met voldoende grote computerkracht en efficiënte algoritmen.

Update dd 27 maart 2019: drie grondleggers van Deep Learning, Yoshua Bengio, Geoffrey Hinton en Yann LeCun, krijgen de Turing Award toegekend voor hun baanbrekende werk. De Turing Award is de hoogste onderscheiding in de informatica, vergelijkbaar met de Nobelprijs in natuurkunde, scheikunde of geneeskunde.