Tuesday, October 14, 2025

Toen de papegaai begon te denken

Drie jaar ChatGPT: van “toevalspapegaai” tot gouden medaille op de Internationale Wiskunde Olympiade. Wat zegt dat over (kunstmatige) intelligentie, creativiteit en de mens? 

Dit artikel is op 13 oktober 2025 gepubliceerd door het platform Beste-ID en is ook hier te lezen.


Op 30 november is het precies drie jaar geleden dat het Amerikaanse bedrijf OpenAI ChatGPT lanceerde. Slechts drie jaar, want het lijkt alweer een eeuwigheid geleden, zo snel went het gebruik. Inmiddels raadplegen wereldwijd ruim zevenhonderdmiljoen mensen minstens een keer per week deze AI-chatbot. Talloze vergelijkbare chatbots zijn inmiddels in het digitale landschap opgebloeid, zoals Gemini, Claude en Mistral. Allemaal behoren ze tot de familie van ‘grote taalmodellen’, AI-modellen die uit enorme hoeveelheden tekst (en menselijke terugkoppeling) hebben geleerd om zelf nieuwe, natuurlijke zinnen te schrijven en in een dialoog met menselijke gebruikers nuttige antwoorden te genereren. Generatieve AI heeft voor een revolutie in onze omgang met informatie gezorgd.

Toch zijn de meningen over generatieve AI in de afgelopen jaren sterk uiteen gaan lopen. Pessimisten zien een onverantwoorde hype, een onbetrouwbare kletsmachine en een instrument dat mensen dom en lui maakt. Optimisten geloven dat kunstmatige mensachtige intelligentie om de hoek ligt en dat AI de mens ongekend productief gaat maken.

Als we even wat dieper graven in de wetenschappelijke kant van generatieve AI, wat hebben we dan in de afgelopen drie jaar geleerd over haar sterke en zwakke punten? En wat zegt dit over hoe we met generatieve AI moeten omgaan?

Allereerst hebben grote taalmodellen zich ontwikkeld tot algemene, veelzijdige AI-modellen omdat ze niet meer alleen zijn getraind op teksten, maar ook op video en audio, op wiskunde en andere wetenschappen, en zelfs op computercode.

Daarnaast zijn grote taalmodellen zoals ChatGPT uitgegroeid tot veel meer dan domme woordvoorspellers. Te pas en te onpas is de metafoor ‘toevalspapegaai’ (stochastic parrot) gebruikt om te beweren dat ChatGPT alleen maar bestaande patronen in taal zou napraten. Een van de interessantste inzichten van de afgelopen jaren is echter dat zuiver en alleen uit het voorspellen van woorden (of tekens) emergente en generieke vaardigheden ontstaan die nooit expliciet in het model zijn gestopt, zoals rekenen, wiskunde, redeneren en programmeren. Verre van perfect, maar in de praktijk vaak nuttig, zeker na menselijke correctie en bijsturing.

Eerder dit jaar losten twee generatieve AI-modellen (van Google en OpenAI) vijf van de zes wiskundeproblemen op van ’s werelds meest prestigieuze wiskundewedstrijd voor middelbare scholieren, de Internationale Wiskunde Olympiade. Het leverde de AI-modellen de gouden medaille op – een fenomenale prestatie die onmogelijk zou zijn door alleen maar een onbetrouwbare kletsmachine of plagiaatrobot.


Een veel gehoorde klacht is dat generatieve AI-modellen vol overtuiging foute en zelfs verzonnen antwoorden kunnen geven (‘hallucineren’). Ja, dat doen ze soms, en ja, daar moeten we ons terdege van bewust zijn. Maar het is geen reden om ze af te serveren. Het toont eerder dat we deze modellen niet moeten zien als feitenmachines, maar als creatieve sparringpartners. Juist in het feit dat ze razendsnel de meest vreemde verbanden kunnen leggen, zit een van hun grote krachten. Het is geen creativiteit met een grote C, geen Kafka of Einstein, maar toch zeker creativiteit met een kleine c. In het voorbijgaan laten deze modellen zien dat creativiteit veel minder mysterieus is dan veel mensen denken. Noch intelligentie, noch creativiteit is uniek menselijk.

De afgelopen drie jaar zijn generatieve AI-modellen met sprongen beter geworden. Ze maken minder redeneerfouten doordat ze leren hun denkproces stap voor stap te verwoorden, een beetje zoals mensen hardop redeneren. En ze maken minder feitelijke fouten omdat ze externe hulpmiddelen kunnen raadplegen, zoals rekenmachines of zoekmachines. De fouten die overblijven, zijn in veel alledaagse situaties te overzien: vaak is het sneller om een imperfect AI-antwoord te verbeteren dan om zelf, via talloze zoekopdrachten, de perfecte oplossing uit te vogelen.

We moeten generatieve AI-modellen niet zien als machines die absolute waarheden produceren, maar als systemen die nuttige waarschijnlijkheden genereren. Hun rationaliteit is beperkt, net zoals de menselijke rationaliteit ook beperkt is, hoewel bij beide op een andere manier. Juist door die beperkte rationaliteit lijken ze meer op mensen dan op traditionele, logisch opererende en foutloze computers.

Om generatieve AI-modellen verstandig te gebruiken, moeten we ons natuurlijk wel bewust zijn van hun beperkingen. Ze hebben – voorlopig althans – nauwelijks begrip van de fysieke wereld, weinig besef van kennis die niet in tekst is vastgelegd, geen intern model van hoe de wereld werkt en slechts een beperkt vermogen om te plannen, te redeneren en conceptueel of causaal te denken.

Hoewel generatieve AI in essentie nog steeds op een motor draait die tekens voorspelt, is die motor dankzij verschillende redeneerachtige hulpmotoren in de afgelopen jaren steeds meer hybride geworden: de papegaai is begonnen te denken. Daardoor kunnen we generatieve AI steeds meer als een slim hulpmiddel gebruiken in het leven van alledag, voor educatie en studie, en in ons werk.

Ondanks terechte kritiekpunten als een relatief hoog energieverbruik en deels illegaal verkregen inhoud, zullen generatieve AI-modellen nooit meer weggaan, zullen ze alleen maar beter en efficiƫnter worden, en zullen de voordelen de nadelen ver overtreffen. Precies zoals we eerder hebben gezien met de uitvinding van de computer en het internet. Wees pragmatisch: omarm generatieve AI om wat het goed kan, wijs het niet af om de fouten die het maakt, onderhoud cruciale eigen vaardigheden en leer er verstandig mee samenwerken.

Tuesday, July 22, 2025

AI in the Era of Climate Change: Solution or Problem?

AI could help save energy but in the near term AI datacenters will use more energy.


This article was written for ACM News and published on 12 May 2025.

With the rise of deep learning since 2010, the number of computations needed to train artificial intelligence (AI) models has doubled about every six months. Enabling that growth requires a lot of energy, and in practice most of that comes from fossil fuels.

On the other hand, there are also countless ways AI can help save energy, which raises the pressing question of whether AI will lead to a net increase or decrease in energy consumption and, subsequently, what effect that will have on climate change.

That question was at the center of the session “AI in the Era of Climate Change: Solution or Problem?” at the AAAS Annual Meeting in Boston in February.

The complete article can be read here.

AI Risks for Democracy, the Economy, and Civil Rights

The lack of clarity on whether a speech, image, or video is real or artificial is at the center of the debate over AI's benefit to society.


This article was written for ACM News and published on 1 April 2025.

Since January’s launch of DeepSeek R1, the Chinese open-source variant of OpenAI’s GPT-o1, the metaphor of the ‘AI race’ has dominated the geopolitical discussion about artificial intelligence (AI) technology. The debate on the real impact of AI on society and the best ways for AI to benefit society as a whole has faded into the background.

However, these topics were at the heart of the conference session “Risks from AI to the Economy and Society” at the recent American Association for the Advancement of Science annual meeting in Boston.

The complete article can be read here.

Rethinking Social Media’s Future


Decentralization and open protocols for social technologies get a call for consideration.



This article was written for ACM News and published on 1 May 2025.

It was only 15 to 20 years ago that social media platforms like Facebook, Twitter (now X), YouTube, and Instagram were hailed as drivers of social connections, multipliers of knowledge and experiences, and even as catalysts for better-functioning democracy. In fact, Time magazine chose Facebook co-founder Mark Zuckerberg as its 2010 Person of the Year, “for changing how we all live our lives.”

“Sure, there are lots of benefits of social technologies,” said Sarita Schoenebeck, a professor in the School of Information at the University of Michigan. “They allow people to participate, to enjoy social relations online, to advocate and to learn new things. But now the harms feel very urgent and growing: disinformation, harassment, quality of information, security, mental health. Are social technologies now actually helping society? And if not, what to do about it?”

The complete article can be read here.

How Liquid Networks Make Robots Smarter

Liquid networks can learn to associate cause and effect, which makes them suitable for robots and other real-world applications.


This article was written for ACM News and published on 24 April 2025.

When Daniela Rus and her collaborators looked at how a deep neural network made decisions in the vision system of their laboratory’s self-driving car, they noticed that its attention was focused on the entire image, even the bushes and trees at the side of the road. “But that’s not how people drive,” said Rus in her office in the Massachusetts Institute of Technology (MIT)’s Computer Science and Artificial Intelligence Laboratory (CSAIL), of which she is the director. “We usually look at the road horizon and the sides of the road.”

Traditionally AI and robotics have been largely two separate fields, Rus explained. “AI has been amazing us with its decision-making and reasoning, but it is confined in the digital space. Robots have physical presence but are generally pre-programmed and not intelligent. We are aiming to bridge the separation between AI and robots by developing what I call ‘physical AI’. Physical AI uses AI’s power to understand text, images, and video to make a real-world machine smarter. And those machines can be any physical platform: a sensor, a robot, or a power grid.”

The complete article can be read here.

Thursday, January 2, 2025

Intelligente robotmicroscoop denkt met chirurg mee

Onderzoekers van de TU Delft en het Erasmus MC werken aan een intelligente robotmicroscoop die meedenkt over de beste manier om een patiƫnt te opereren.


Dit artikel schreef ik voor Pioneering Tech van de TU Delft (gepubliceerd op 26 november 2024).

Plastisch chirurg Dalibor Vasilic van het Erasmus MC herstelt geregeld een verminkt gezicht of reconstrueert een borst na een amputatie. Hij gebruikt daarbij weefsel van de patiĆ«nt zelf: huidweefsel van een bovenbeen bevestigt hij op het gezicht, of buikweefsel op de plaats van een geamputeerde borst. 

Tijdens de operatie hecht hij soms bloedvaatjes dunner dan een millimeter aan elkaar. Traditioneel gebruiken chirurgen daarvoor een microscoop die de operatie tien keer vergroot in beeld brengt. Sinds 2020 gebruikt Vasilic echter een robotarm waaraan een digitale microscoop is bevestigd die tot wel tot wel 25 keer vergroot. Tijdens de operatie kijkt Vasilic niet meer direct naar de plek van de operatie en zijn handen, maar door een 3D-bril naar een scherm recht voor zich. Het schermbeeld komt van een camera aan een beweeglijke robotarm die de operatie vanuit veel meer hoeken kan laten zien dan de chirurg zelf.

De robotarm met digitale microscoop is niet zomaar een noodzakelijk hulpmiddel voor de ogen van de chirurg, het is ook de opstap naar een visionair idee, vertelt Vasilic: “Mijn visie is dat de robotarm in de toekomst met de chirurg meedenkt over de beste manier om een patiĆ«nt te opereren. In deze visie wordt de robotarm onderdeel van een digitaal platform waarin je ook bijvoorbeeld een MRI-beeld kunt integreren, waarin de robotarm kan leren van eerdere operaties en zelfs nieuwe chirurgen en studenten kan trainen.”

Lees het hele artikel op de website van TU Delft Pioneering Tech.

Een korte versie van dit artikel is gepubliceerd op de website van Beste-ID en in NRC Handelsblad.

Friday, December 13, 2024

Innovatieve robots verlichten schoonmaakwerk

Eindelijk beginnen robots dan ook het schoonmaakwerk te verlichten.


Dit artikel schreef ik voor Pioneering Tech van de TU Delft (gepubliceerd op 19 november 2024).

In de nachtelijke uren maken schoonmakers met hogedrukspuiten de machines schoon die overdag aan het werk zijn om talloze voedingsmiddelen te produceren. Vooral de pols van de schoonmaker heeft het zwaar te verduren. Kan technologie hier niet de helpende hand bieden?, vroegen ze zich af bij schoonmaakbedrijf Gom. Op zoek naar een technische oplossing die het werk van deze schoonmakers verlicht, startte Gom samen met Kleentec (onderdeel van Gom) in april 2023 een samenwerking met het TU Delft fieldlab RoboHouse. Opdrachtgever Hilton Foods Holland bood Gom de gelegenheid om tests uit te voeren. 

Lees het hele artikel hier.