Boeken

Tuesday, June 19, 2018

Luis in de pels van de tech-sector zoekt nu oplossingen

In zijn nieuwste boek How to fix the future is ondernemer en auteur Andrew Keen voorzichtig optimistisch dat de nevenschade van de digitale revolutie nog te repareren is.

Dit artikel is gepubliceerd in de VPRO Gids van 12 juni 2018

Diep voorovergebogen zit Andrew Keen buiten op een plastic stoeltje in de stralende mei-zon. Hij staart op zijn smartphone. Ik spreek hem aan: ‘Hallo, we hebben een interviewafspraak’. ‘O, hallo. Je hoeft dit niet voor radio of tv op te nemen, toch?’ Hij bijt wat op zijn nagels. ‘Nee hoor.’ Hij zakt in, knijpt zijn ogen dicht tegen de zon en zal me de rest van het interview nauwelijks meer aankijken. Binnen gaan zitten wil hij niet: ‘Daar is het nog warmer.’ Hij zucht.

Keen is in Nederland voor de promotie van zijn nieuwste boek How to fix the future. Ik bezoek twee van zijn lezingen en spreek hem op het festivalterrein van The Next Web, een tech-conferentie in Amsterdam waar verreweg de meeste sprekers de blijde boodschap van de digitale technologie verkondigen. Keen is hier een vreemde eend in de sprekersbijt. Hij is een van de vroege critici van de digitale revolutie. In drie eerdere boeken die hij sinds 2007 schreef, betoogde hij dat het internet onze cultuur om zeep helpt door het ondermijnen van expertise en het creëren van nep-nieuws, dat sociale media vooral asociale media zijn die narcisme aanmoedigen, en dat de digitale revolutie een winner-takes-all-economie heeft gecreëerd waarin een handvol grote techbedrijven het geld en de macht in handen heeft en waardoor de economische ongelijkheid in de samenleving wordt vergroot.

Hoe gaat Keen zelf om met al die voor velen zo handige diensten uit Silicon Valley? ‘Ik gebruik Google de hele tijd, maar ik heb geen Google-account. Facebook gebruik ik niet. Ik gebruik Twitter nauwelijks. Eigenlijk haat ik het. Maar kijk, ik ben net zo kwetsbaar als iedereen. Ik ben verslaafd aan tekstberichten. Maar ik besef ook dat voortdurend tekstberichten sturen ongezond is en tot verstoorde relaties kan leiden.’

Sommige mensen hebben hem inconsequent genoemd omdat hij kritiek heeft op de digitale cultuur maar er wel aan mee doet. Wat heeft hij die critici te zeggen? ‘Ik woon met plezier in Silicon Valley. Ik voel meer meer een techie dan een non-techie. Maar neem Uber. Uber biedt veel gemak. Ze behandelen hun chauffeurs echter slecht. Het gebrek aan rechten. Het lage inkomen. Toch bestel ik wel eens een rit via Uber, als het niet anders kan.’ Geïrriteerd zegt hij: ‘Mijn kritiek is veel fundamenteler dan alleen het persoonlijke gebruik. Het gaat er meer om hoe je een dienst gebruikt dan of je een dienst gebruikt. Je kunt Facebook ook heel spaarzaam gebruiken, waarbij je je heel bewust bent van wat Facebook allemaal over je te weten komt, in plaats van dat je zomaar alles zorgeloos deelt.’

Dit raakt de kern van How to fix the future, waarin hij de wereld rondreist op zoek naar mensen die experimenteren met oplossingen voor de structurele problemen die de digitale revolutie volgens Keen heeft veroorzaakt. ‘Voor mij is de kern het begrip agency. Agency gaat over onze sociale gezondheid. Het betekent dat we als burgers en consumenten weer zelf aan het stuur komen te staan in plaats van de grote tech-bedrijven. Als burgers en consumenten moeten we onze verantwoordelijkheid nemen en een tegenkracht ontwikkelen. Zo hebben we het ook gedaan met de voedingsindustrie en de auto-industrie. We zijn om gezonder voedsel en milieuvriendelijkere auto’s gaan vragen.’

Om de problemen van de digitale revolutie te repareren zouden we dit verantwoord digitaal consumeren en het nemen van onze sociale verantwoordelijkheid als burgers volgens Keen moeten combineren met drie andere instrumenten: regulering door overheden ‑ zoals de nieuwe Europese privacywetgeving, waarover hij positief is ‑ innovaties die consument en burger weer meer controle geven, en een onderwijssysteem dat meer aandacht besteedt aan wat het betekent om een burger te zijn. ‘De mens heeft deze vijf instrumenten al vaker in de geschiedenis gebruikt om de nevenschade van ontwrichtende technologie te repareren. In de 19e eeuw bijvoorbeeld met de industriële revolutie. Daarom ben ik ook nu voorzichtig optimistisch.’

Ik vraag Keen hoe hij in dit kader kijkt naar Facebook’s Cambridge Analytica-schandaal. Vooralsnog lijken Facebook-gebruikers niet massaal te zijn weggelopen. Hij begint weer te kijken op zijn smartphone. Op de automatische piloot antwoordt hij: ‘Dit was geen beslissende gebeurtenis. Mensen waren niet echt geshockt. Ik denk dat er in de toekomst grotere dingen gaan gebeuren die mensen wel ontmoedigen dat platform te gebruiken. Een oorlog die wordt uitgelokt door nep-informatie. Iets dat mensen nu helemaal niet verwachten.’ Hij bromt: ‘Maar ik ben helemaal niet geïnteresseerd in deze vraag.’

Het onderwijs dan. Keen draagt zijn boek op ‘Aan onze kinderen’ en het onderwijs ziet Keen als een krachtig instrument en als de grootste uitdaging. ‘Het gaat mij om humanistische educatie, niet om technologische educatie. We moeten mensen die dingen leren die computers niet kunnen: creativiteit, empathie, verantwoordelijkheid. Een algoritme kan een diagnose stellen maar niet met een patiënt praten. Een algoritme kan niet empatisch zijn. Een algoritme kan geen boek schrijven zoals How to fix the future. Een algoritme heeft geen eigen wil.’

Dan maakt Keens lichte optimisme weer plaats voor een pessimisme waarin hij zich beter lijkt thuis te voelen: ‘Toch denk ik dat de echte problemen van de digitale revolutie nu pas beginnen. En we zullen een generatie nodig hebben om de problemen op te lossen. We moeten wel, anders kunnen we over 25 jaar de toekomst niet meer repareren.’ Hij kijkt weer op zijn smartphone. ‘Ik moet gaan. Dankjewel. Wat een vreselijk weer is het toch.’ En weg is hij.

Boekinformatie:Andrew Keen. How to fix the future − Staying human in the digital age. Atlantic Books London, 2018.

Sunday, June 17, 2018

Wordt CLAIRE het CERN voor kunstmatige intelligentie?


Ruim 130 Europese onderzoekers op het terrein van kunstmatige intelligentie (artificial intelligence - AI) roepen op tot een nieuw Europees top-instituut als antwoord op Amerikaanse en Chinese AI-initiatieven. 

Het nieuw op te richten instituut moet CLAIRE gaan heten: Confederation of Laboratories for Artificial Intelligence in Europe. Motto: “Excellence across all of AI. For all of Europe. With a Human-Centered Focus”. 

De onderzoekers vinden dat de Europese investeringen in talent, onderzoek, technologie en innovatie achterliggen bij die van landen als de VS, China en Canada. Ze schrijven in hun oproep: "Kunstmatige intelligentie is cruciaal voor Europa om allerlei complexe uitdagingen aan te gaan en om Europa en haar landen een goede positie op de wereldmarkt te bezorgen."

Een van de drie hoofdopstellers van de oproep is hoogleraar machine learning Holger Hoos van de Universiteit Leiden. Daarnaast ondertekenden nog ruim tien andere Nederlandse AI-onderzoekers de oproep.

In april van dit jaar riepen 25 Europese landen al op tot meer investeringen in AI en tot een Europese aanpak. Het voorstel voor het nieuwe top-instituut CLAIRE sluit hierbij aan.

Lees het hele CLAIRE-voorstel hier.

In oktober 2017 interviewde ik voor NRC Handelsblad hoogleraar Gary Marcus. Hij riep toen al op tot een soort CERN voor AI. Lees het interview hier.





Wednesday, May 30, 2018

‘Alleen al om Wikipedia is het web de moeite waard’

Tim Berners-Lee, de uitvinder van het world wide web, was op dinsdag 29 mei in Amsterdam voor de Turing Award-lezing. „In 29 jaar tijd is het web van Utopia naar Dystopia gegaan.”

Dit artikel is gepubliceerd op de website van NRC Handelsblad op dinsdag 29 mei

Vorig jaar won sir Tim Berners-Lee de Turing Award − het equivalent van de Nobelprijs voor de informatica − voor ‘het uitvinden van het world wide web, de eerste webbrowser en de fundamentele protocollen en algoritmen waardoor het web kon groeien’. Hij ontving 1 miljoen dollar aan prijzengeld, met als enige verplichting het houden van de Turing Award-lezing. Die lezing gaf hij dinsdag, tijdens de WebSci’18-conferentie in Amsterdam.

Waar het internet een netwerk van computernetwerken is, is het world wide web de informatieruimte die we met z’n allen in de loop van drie decennia hebben gebouwd op het internet als medium. Een informatieruimte die we dankzij Berners-Lee snel en gemakkelijk kunnen exploreren. Hij vertelt hoe hij het web in 1989 bouwde bij CERN in Genève als een bijna utopische droom van een open platform waarop iedereen, door alle culturen heen, over alle grenzen heen, vrij informatie kon delen en creativiteit zou bloeien.

De afgelopen jaren is die droom volgens Berners-Lee ruw verstoord door fenomenen die niemand begin jaren negentig van de vorige eeuw nog had vermoed: centralisering van informatie-uitwisseling op een aantal dominante platforms, de gemakkelijke verspreiding van nep-nieuws, het verlies van controle over persoonlijke gegevens, het gericht op de persoon sturen van politieke boodschappen. Berners-Lee: „In 29 jaar tijd is het web van Utopia naar Dystopia gegaan. De vraag is hoe we weer terug kunnen keren naar Utopia.”

Lees het hele artikel op de website van NRC Handelsblad.

-------------------------------------------------------------------------------------------------



For the Association for Computing Machinery (ACM) I have written a different version of my interview with Tim Berners-Lee. You can read it on the website of the ACM.

Tuesday, May 15, 2018

A New Sense for Underwater Robots

This article has been published on the website of the ACM.


Traditionally, underwater robots/drones are bulky, unintelligent, and sluggish; they sense their environment with sound via sonaror by sight via a camera, but that often gives them only a limited underwater view.

Maarja Kruusmaa, founder and director of the Center for Biorobotics at the Tallinn University of Technology in Estonia, has endowed underwater robots with a completely new sense: the artificial lateral line, an electronic organ that enables her lab's underwater robots to extract information from the water around it, and to act on it. "Just like robots on the land can map a landscape, our robots map a flowscape underwater," says Kruusmaa. "The flowscape gives the robot precise information about the pressure, pressure differences, and the acceleration of the flow."

Read the complete article on the website of the ACM.

Tuesday, May 1, 2018

Deep learning maakt van computers nog lang geen mensen

Lerende computers stapelen al vijf jaar lang succes op succes. Maar hun beperkingen worden ook steeds duidelijker.

Dit artikel is gepubliceerd in het mei-nummer van De Ingenieur 

Wie de afgelopen jaren het nieuws over kunstmatige intelligentie ook maar een beetje heeft gevolgd, ontkwam niet aan de schijnbare magie van ‘deep learning’, een techniek waarmee computers nieuwe dingen leren (zie kader). Dankzij deep learning versloeg een go-computer de menselijke wereldkampioen. Apple gebruikt de techniek in de spraakherkenning van telefoonhulpje Siri, Facebook tagt er automatisch foto’s mee en Google Translate vertaalt er teksten mee. Vorig jaar ontdekten sterrenkundigen mede dankzij hun lerende computers twee nieuwe exoplaneten in de data van de Keplertelescoop.

So far so good. Hoe breder deep learning echter wordt uitgerold, hoe vaker ook haar beperkingen komen bovendrijven. Begin dit jaar publiceerde de Amerikaanse hoogleraar psychologie Gary Marcus een artikel dat inzoomt op precies die beperkingen (https://arxiv.org/abs/1801.00631). Het artikel leidde tot duizenden reacties op Twitter en een levendig inhoudelijk debat. Marcus is niet zomaar iemand die vanaf de zijlijn commentaar geeft. Hij richtte in 2015 zijn eigen bedrijf Geometric Intelligence op, dat computers efficiënter wilde laten leren. Eind 2016 verkocht hij het aan Uber.

Marcus weet waar hij het over heeft, en hij kreeg behalve kritiek (onder andere dat hij te weinig de successen vierde) ook veel bijval. Zelfs de vader van deep learning, de Britse cognitief psycholoog en informaticus Geoffrey Hinton, zei dat er waarschijnlijk geheel nieuwe methodes uitgevonden moeten worden om computers echt mensachtige intelligentie te laten vertonen.

Het gevaar van het succes van deep learning is dat al te veel mensen zijn gaan geloven dat zulke kunstmatige mensachtige intelligentie om de hoek ligt. Dat leidt weer om de haverklap tot zwaar overtrokken nieuwskoppen als deze van CNN: “Computers are getting better than humans at reading” (http://money.cnn.com/2018/01/15/technology/reading-robot-alibaba-microsoft-stanford/index.html). Wie iets dieper graaft, ziet meteen dat de computer helemaal geen leesbegrip heeft ontwikkeld, maar wel op bepaalde vragen over Wikipedia-teksten de relevante tekstpassages kan markeren. Best knap, best nuttig, maar het is maar een klein onderdeel van wat het betekent om begrijpend te lezen.

De Canadese hoogleraar en deep-learning-expert Yoshua Bengio zei over zulke overdrijvingen vorig jaar: “We zijn nog steeds heel ver van kunstmatige intelligentie op menselijk niveau.”

Lees de rest van het artikel in het mei-nummer van De Ingenieur.

Thursday, April 26, 2018

Succes kent vele mislukkingen

"Ever tried, ever failed? No matter. Try again, fail again." - Samuel Beckett

Succesverhalen horen we te over. Verhalen van mislukkingen worden meestal weggestopt uit schaamte. Maar juist van die mislukkingen - op welk terrein dan ook - kunnen we vaak veel leren. Om uiteindelijk succes te hebben, zijn mislukkingen juist essentieel.

Reinhold Messner, een van de beste en meest succesvolle bergbeklimmers aller tijden (en de eerste die de Mount Everest solo en zonder extra zuurstof beklom), zegt dat hij al zijn successen nooit had kunnen behalen zonder eerst heel vaak te falen: 

"Failure itself is not important. It's what happens immediately after that counts - the inner feelings, the turmoil and self-doubt - and how you deal with it. It can mean a new start, an opportunity to experience your limitations and to grow as a result. My mind-set and my attitudes have changed over the years, and this is largely due to my frequent failures."

[Uit het boek Reinhold Messner - My Life at the Limit.]

Mislukkingen waarvan we veel kunnen leren staan centraal in het vandaag verschenen boek "Instituut voor briljante mislukkingen" van Paul Iske, hoogleraar Open Innovatie & Business Venturing aan de Universiteit Maastricht. 

                                                

Waarom is mislukken belangrijk? Hoe open staat de omgeving waarin we leven en werken voor mislukkingen? Wat kun je er van leren? Iske analyseert in het boek verschillende soorten van mislukkingen en laat experts aan het woord over mislukkingen op hun expertiseterrein. Zo komen onder andere aan het woord hoogleraar organisatiekunde Mathieu Weggeman, voetbaltrainer Foppe de Haan, futuroloog Wim de Ridder en de directeur van het CBS Tjark Tjin-a-Tsoi.

Op verzoek van Paul Iske heb ik zelf onderstaande bijdrage in het boek geschreven, een verhaal over een briljante mislukking in de wetenschap. Een verhaal ook over een wetenschapper die op goede gronden niet wenste mee te doen aan overdreven verwachtingen rondom kunstmatig intelligente computers, een thema dat vandaag de dag actueler is dan ooit tevoren.

-----------------------------------------------------------------------------------------------------------------

Meedoen met het wensdenken of verstoten worden

Joseph Weizenbaum was een dertienjarig Joods jongetje in Berlijn toen zijn ouders in 1936 besloten om voor de nazi’s te vluchten. Het gezin liet Duitsland achter zich, voer per boot naar New York en stapte daar op de trein naar Detroit. Na de oorlog studeerde Joseph Weizenbaum af in de wiskunde en kreeg hij al snel de drang om iets nuttigs voor de wereld te doen. ‘Dan moet je iets met computers gaan doen’, zei een collega begin jaren vijftig tegen hem − een tijd waarin het aantal computers in de wereld nog op de vingers van twee handen te tellen was.

Weizenbaum leerde de kracht maar ook de zwakte van de computer van binnenuit kennen door zelf te bouwen, zelf te programmeren en zelf te experimenteren. In 1963 werd hij hoogleraar informatica aan het Massachusetts Institute of Technology (MIT). Hij kreeg al snel een idee voor baanbrekend onderzoek. Tot dan toe schreven computerprogrammeurs hun programma eerst op papier, verwerkten het programma vervolgens in ponskaarten en schoven die in de computer. Die programma’s werden steeds langer en ingewikkelder. Wat nou, dacht Weizenbaum, als we een computer kunnen programmeren door er in natuurlijke taal mee te ‘praten’, alsof we een kind onderwijzen? Het programma zou dan stukje bij beetje slimmer kunnen worden.

Maar waarover zou je dan met een computer kunnen praten? Weizenbaum realiseerde zich dat een computer in beginsel niks weet over de wereld en hij verzon een eenvoudig script om die handicap te verbloemen: laat de computer de rol van een psychotherapeut spelen die de patiënt een spiegel voorhoudt door terug te kaatsen wat de patiënt vertelt. Hij bedacht een manier om Engelstalige zinnen te analyseren en een verzameling regels om de computer op basis van steekwoorden uit die zinnen te laten antwoorden. Hij noemde zijn programma ELIZA. De dialoog tussen de gebruiker en de computer verliep geheel in geschreven tekst, en zo werd ELIZA de eerste chatbot ter wereld.

Weizenbaums chatbot stond een aantal jaren lang open voor gesprekken met iedereen die het maar wilde aan de universiteit. Hier is een fragment van een chat tussen een tienermeisje en ELIZA:

Tiener: Men are all alike

ELIZA: In what way

Tiener: They’re always bugging us about something or other

ELIZA: Can you think of a specific example?

Tiener: Well, my boyfriend made me come here

ELIZA: Your boyfriend made you come here

Tiener: He says I’m depressed much of the time

ELIZA: I’m sorry to hear that you are depressed

Tiener: It’s true that I am unhappy

ELIZA: Do you think coming here will help you not to be unhappy?


In 1966 publiceerde Weizenbaum zijn wetenschappelijke artikel ELIZA − A computer program for the study of natural language communication between man and machine. Hij legde uit hoe het programma werkte en benadrukte dat “ELIZA laat zien hoe gemakkelijk het is om de illusie van begrip te wekken en in stand te houden”.

Het oorspronkelijke doel om een computer in een dialoogvorm te programmeren was mislukt. Eigenlijk leerde Weizenbaums experiment ons überhaupt weinig over computers, maar des te meer over mensen. Mensen vallen snel ten prooi aan het ELIZA-effect: het effect dat de computer de illusie creëert dat hij mensen begrijpt. In de kern ontstaat dit omdat het menselijk brein een sterke neiging tot antropomorfiseren heeft. We zien al snel een menselijk gezicht in een vreemd gevormde wolk, van een computer die hapert vinden we dat hij zijn dag niet heeft en we denken dat een robot die alleen maar voorgeprogrammeerde bewegingen uitvoert een eigen wil heeft.

Het briljante van het ELIZA-experiment zit in de radicale manier waarop het Weizenbaums kijk op de interactie tussen mens en computer veranderde. Weizenbaum was geschokt door de reacties op ELIZA. Allereerst geloofde een aantal serieuze psychiaters dat ELIZA de opmaat zou zijn naar volledig geautomatiseerde psychotherapie. Weizenbaum verafschuwde het idee dat psychotherapie mogelijk zou zijn zonder diep-menselijke, emotionele betrokkenheid en met alleen maar digitale informatieverwerking.

Ten tweede was hij geschokt over hoe makkelijk mensen hun intiemste zielenroerselen aan een computer toevertrouwden. Zelfs zijn eigen secretaresse, die als geen ander wist dat ELIZA gewoon een computerprogramma was, wilde graag met de chatbot praten en vroeg haar baas op een gegeven moment zelfs om de kamer te verlaten omdat ze in een persoonlijk gesprek met ELIZA was verwikkeld. Jaren later schreef Weizenbaum: “Ik had me niet gerealiseerd dat zelfs een extreem korte blootstelling aan een relatief simpel computerprogramma zulke krachtige wanen kon opwekken in normale mensen.”

Tenslotte was hij geschokt door de reacties van zijn vakbroeders op zijn werk. Waar hij zelf vond dat hij niets nieuws had ontdekt over computers, vonden de meeste van zijn collega’s dat ELIZA de weg opende naar computers die met mensen kunnen praten en die mensen begrijpen. Een van Weizenbaums MIT-collega’s zei in 1970 tegen het tijdschrift Life: “Binnen drie tot acht jaar hebben we een machine met de algemene intelligentie van een gemiddeld mens.”

Weizenbaum weigerde mee te gaan in dit soort voortdurend terugkerende wensdenken en ging zich richten op het bestuderen van de rol die de computer in onze maatschappij speelt. Meer en meer werd hij verstoten door zijn voormalige collega’s. Zo zei Marvin Minsky, decennialang de hogepriester in de wereld van de kunstmatige intelligentie: “Het zou fijn zijn wanneer Joe zou weten hoe een computer werkt.”

Het verhaal van Weizenbaum legt een dieper probleem in de wetenschap bloot. Om onderzoeksgeld binnen te slepen helpt het om grote beloften te doen, bijvoorbeeld dat kunstmatige intelligentie spoedig veel beter is dan menselijke intelligentie. Wie, zoals Weizenbaum, een serieus experiment doet en de eerlijke conclusie trekt dat die belofte veel te hoog gegrepen is (of dat een experiment is mislukt), maakt het niet alleen zichzelf maar ook zijn collega’s moeilijker om aan onderzoeksgeld te komen.

In de afgelopen decennia is de druk op wetenschappers om veel te beloven alleen maar groter geworden. Zo ontdekten Nederlandse onderzoekers dat tegenwoordig woorden als novel en outstanding in de samenvattingen van wetenschappelijke artikelen vier keer zo vaak voorkomen als in de jaren zeventig. Te veel beloven en vervolgens te weinig presteren zijn op de lange termijn een serieus gevaar voor de wetenschap omdat dit het publieke vertrouwen ondermijnt. Nobelprijswinnaar natuurkunde Richard Feynman heeft dit mechanisme perfect verwoord toen hij het onderzoeksrapport naar de ramp met de space shuttle Challenger in 1986 besloot met de woorden: “For a successful technology, reality must take precedence over public relations, for nature cannot be fooled.”

Meer informatie:
Over Joseph Weizenbaum is de interessante documentaire Rebel at Work gemaakt.
Het oorspronkelijke ELIZA-artikel
New York Times-artikel na het overlijden van Weizenbaum in 2008

Wednesday, April 25, 2018

Is de volgende Mozart nog een mens?

Is creativiteit iets uniek menselijks, of kunnen computers en robots het ook? En als ze creatief kunnen zijn, gaan ze ons dan naar de kroon steken?



Dit artikel is gepubliceerd in EOS van mei 2018. Om het hele artikel te lezen: koop het volledige nummer in de kiosk, of koop en lees alleen het artikel via Blendle.

Hier is alvast het begin van het artikel:

In de sciencefictionfilm I, robot (2004) ondervraagt politiedetective Del Spooner de humanoïde robot Sonny. “Mensen hebben dromen”, zegt Spooner tegen de robot. “Zelfs honden hebben dromen. Maar jij niet. Jij bent alleen maar een machine. Een nabootsing van het leven. Kan een robot een symfonie schrijven? Kan een robot een stuk canvas omtoveren tot een prachtig meesterwerk?” Daarop antwoordt robot Sonny: “Kun jij dat?”

We verwachten van robots vaak prestaties die we bij mensen alleen van genieën verwachten. Picasso en Einstein waren hyper-creatief, maar dat is niet ieder mens gegeven. Nu robots steeds slimmer en behendiger worden, nu computers wereldkampioenen van tafel vegen in bordspelen zoals schaken en go, is de vraag hoe creatief zulke machines kunnen zijn en hoe we ons als mensen moeten verhouden tot creatieve machines.