Wednesday, June 26, 2024

Eerste hulp bij de duiding van AI-nieuws

Deze bijdrage heb ik geschreven voor de Vereniging voor Wetenschapsjournalistiek en -communicatie Nederland (VWN). Het artikel is ook te lezen op de website van de VWN.

Als wetenschapsjournalist doe ik sinds 2010 verslag van kunstmatige intelligentie (AI) en ik heb dit deelgebied van de informatica zich spectaculair zien ontwikkelen. In 2010 was AI voornamelijk fundamentele wetenschap, met maar weinig praktische toepassingen. Hoewel bijvoorbeeld Google Translate al bestond, was het krakkemikkig. Hetzelfde gold voor automatische beeld- en spraakherkenning.

De omwenteling kwam in 2012. Toen brak een techniek door die deep learning heet: leren met kunstmatige neurale netwerken die bestaan uit tientallen lagen van kunstmatige neuronen (in plaats van een handvol in de decennia daarvoor). Deep learning is ideaal voor het herkennen van patronen in grote hoeveelheden data die van goede kwaliteit zijn. Dankzij deep learning en de beschikbaarheid van grote hoeveelheden digitale data werd AI naast zuivere wetenschap ook een toegepaste wetenschap. In het afgelopen decennium kwam AI terecht in alledaagse technologie zoals automatisch vertalen, automatische beeld- en spraakherkenning, en nog recenter in AI-systemen zoals ChatGPT of Copilot, die nieuwe tekst, audio, video en zelfs computercode genereren.

De vooruitgang die AI in het afgelopen decennium heeft geboekt, is spectaculair. Tegelijkertijd zijn er ook een heleboel hypes geweest. Nadat de IBM supercomputer Watson in 2011 de twee beste menselijke spelers aller tijden verpletterde in de kennisquiz Jeopardy, dacht IBM dat Watson, met een beetje bijscholing, ook wel even een superieure digitale arts zou kunnen worden. Elon Musk voorspelde jaar na jaar dat de volledig zelfrijdende auto om de hoek lag. Een van de grondleggers van deep learning, Turingprijswinnaar Geoffrey Hinton, voorspelde dat menselijke radiologen overbodig zouden worden omdat AI radiologie volledig zou automatiseren. Allemaal voorbeelden van grootspraak, gebaseerd op het volkomen verkeerd inschatten van de complexiteit van de echte wereld buiten het AI-lab waarin data zelden zo schoon zijn als in het lab. En ook op het onderschatten van menselijke intelligentie: dingen die voor mensen gemakkelijk zijn, zijn voor AI vaak moeilijk, en andersom.

Als het duiden van AI-nieuws ergens behoefte aan heeft, is het aan realistische en hypevrije berichtgeving. Daarom heb ik vier lijstjes opgesteld die hierbij kunnen helpen:

  1. Wat je op zijn minst moet weten over AI
  2. Mythes over AI 
  3. Denkgereedschap bij AI-duiding 
  4. Sceptische vragen bij AI-nieuws 
1.    Wat je op zijn minst moet weten over AI

  • AI is niet iets van de afgelopen paar jaar. In 1950, net nadat de eerste computers waren gebouwd, formuleerde de Britse wiskundige Alan Turing al een test die zou moeten bepalen wanneer een computer kan denken: de Turingtest (door Turing zelf “imitation game” genoemd). Turing dacht al na over kunstmatige intelligentie voordat het vakgebied bestond. 
  • Als wetenschappelijk vakgebied, en onderdeel van de informatica, ontstond AI in 1956 tijdens een zomerworkshop in de VS. 
  • Een jaar eerder formuleerden vier Amerikaanse wetenschappers in het voorstel voor de zomerworkshop voor het eerst het doel van AI: “Het onderzoek gaat uit van de veronderstelling dat elk aspect van leren of elk ander kenmerk van intelligentie in principe zo nauwkeurig beschreven kan worden dat een machine het kan nabootsen. Er zal worden geprobeerd uit te vinden hoe machines taal kunnen gebruiken, abstracties en concepten kunnen vormen, soorten problemen kunnen oplossen die nu aan mensen zijn voorbehouden en zichzelf kunnen verbeteren.” 
  • De term artificial intelligence is bedacht door de Amerikaan John McCarthy, een van de vier initiatiefnemers van de workshop. Niemand was toen gelukkig met die term. Het doel was immers om ‘echte’ menselijke intelligentie in een machine te realiseren, niet om ‘kunstmatige’ intelligentie te bouwen. Maar, zoals McCarthy zei: “Ik moest het iets noemen”. 
  • Enkele hoogtepunten uit de AI-geschiedenis: 
    • Chatbot Eliza (1966) is de eerste chatbot. 
    • Robot Shakey (1969) is de eerste mobiele robot die kan redeneren over zijn eigen acties. 
    • Schaakcomputer DeepBlue (1997) verslaat wereldkampioen schaken Gary Kasparov. Een doorbraak in machinaal redeneren. 
    • Robotauto Stanley (2005) legt tijdens een DARPA Grand Challenge zelfstandig een lastig parcours af in de Amerikaanse Mojave-woestijn. Een doorbraak in beeldherkenning, routeplanning en mobiele robotica. 
    • Supercomputer Watson (2011) wint de Jeopardy-quiz. Een doorbraak in natuurlijke taalverwerking en het redeneren over kennis. 
    • Go-computer AlphaGo (2016) verslaat de Zuid-Koreaanse wereldkampioen Lee Sedol. Een doorbraak in machinaal leren. 
    • OpenAI lanceert ChatGPT (2022), waardoor AI ineens voor een breed publiek toegankelijk wordt. Een doorbraak in het genereren van natuurlijke taal. 
  • Grofweg gezegd bestaat AI uit twee takken: machinaal redeneren en machinaal leren
  • Machinaal redeneren kun je zien als het nabootsen van de menselijke geest. Het idee is dat elk intelligent systeem, of het nu een mens of machine is, opereert door bepaalde symbolen volgens logische regels te verwerken. 
  • Machinaal redeneren is geschikt voor problemen die je goed kunt uitleggen in regels, zoals een logisch raadsel, het redeneren over kennis of het plannen van een route. 
  • Machinaal leren kun je zien als het nabootsen van het menselijk brein, in de zin van de biologische hardware waaruit de menselijke geest voortkomt. Machinaal leren kan op talloze manieren worden geïmplementeerd op een computer. Neurale netwerken zijn tegenwoordig de bekendste en succesvolste. 
  • Machinaal leren is geschikt voor problemen die je niet goed in regels kunt uitleggen en waarvan veel trainingsvoorbeelden beschikbaar zijn, zoals het herkennen van beeld en spraak. 
  • Decennialang kon AI alleen maar hele gespecialiseerde taken aan (bijvoorbeeld handgeschreven cijfers herkennen). Dat werd narrow intelligence genoemd. Daartegenover stond general intelligence, waarmee menselijke intelligentie werd bedoeld. (Daarbij werd vergeten dat menselijke intelligentie ook maar een van de mogelijke vormen van intelligentie is, en zeker niet ‘algemeen’.) 
  • Toen AI steeds meer taken aankon, begonnen sommigen te spreken over Artificial General Intelligence (AGI), kunstmatige intelligentie die de menselijke capaciteiten in een breed scala aan cognitieve taken evenaart of overtreft. Eigenlijk is AGI niets anders dan wat van begin af aan het doel is geweest van AI. Het is vooral de angst voor supermenselijke intelligentie die het begrip AGI op de radar heeft gezet. 
  • Het doel van AI-technologie is niet om mensen te vervangen, maar om mensen aan te vullen, in hun kracht te zetten en menselijke prestaties te verbeteren. In de afgelopen jaren is de samenwerking tussen mens en AI een nieuw wetenschapsgebied geworden, soms onder de noemer van human-centered AI, soms onder de noemer van hybride intelligentie. 
2.    Mythes over AI

  • De grootste misvatting is om tegen huidige AI aan te kijken alsof het menselijke intelligentie is. Mensen hebben een leven, AI niet. Kunstmatige intelligentie is anders dan menselijke intelligentie: soms beter, soms slechter, maar tot nu toe vooral anders. Pas dus op voor menselijke projectie op wat machines doen: soms is een machine die kwaakt en waggelt, gewoon een machine en geen eend. 
  • “We zijn dicht bij AGI.” Onzin. De mens heeft talloze cognitieve capaciteiten waaraan AI nog lang niet kan tippen. Ontwikkelingspsycholoog Alison Gopnik zei het zo: “Zelfs de meest geavanceerde kunstmatige intelligentie is nog lang niet in staat tot het oplossen van problemen die vierjarige kinderen met gemak oplossen.” 
  • “AI is een hype en waait wel over.” Dat is net zo goed onzin. AI is in het afgelopen decennium stukje bij beetje in al onze computers, smartphones en digitale diensten gaan zitten. Wetenschappers gebruiken AI steeds vaker als onderzoeksinstrument. 
  • “AI is niet intelligent.” De vraag wat intelligentie is, is een filosofische vraag waarover veel te discussiëren valt. Het is echter onmiskenbaar dat AI taken verricht die intelligentie vereisen wanneer mensen ze zouden doen. In die zin bezit AI welk degelijk bepaalde vormen van intelligentie. Alleen, zoals AI-pionier John McCarthy ooit zei: “Zodra het werkt, noemt niemand het meer AI.” Net zoals we in de loop van de geschiedenis zijn gaan inzien dat ook dieren vormen van intelligentie hebben, zo zouden we ook moeten inzien dat computers intelligentie kunnen hebben. 
  • “AI kan nu al {x}, dus overmorgen kan het {y} en {z}.” Decennialang AI-onderzoek heeft laten zien dat juiste de laatste vijf tot tien procent vaak het moeilijkst zijn. De zelfrijdende auto is daarvan een goed voorbeeld. We hebben slimme rijondersteuning, maar de volledig zelfrijdende auto is nog ver weg. 
  • “AI discrimineert.” Dat kan zeker, maar het is geen natuurwet dat AI discrimineert. Mensen zijn verantwoordelijk voor AI-systemen en het is aan mensen om discriminatie er zoveel mogelijk uit te halen. Eén ding weten we zeker: de lijst van menselijke vooroordelen en systematische denkfouten is lang, en discriminatie is moeilijker uit mensen te halen dan uit machines. 

3. Denkgereedschap bij AI-duiding

  • AI is mensenwerk. Elke AI-toepassing wordt nog steeds ontworpen, gebouwd, geprogrammeerd en onderhouden door mensen. Mensen verzamelen en selecteren de data, mensen helpen bij het trainen van lerende AI-systemen, en mensen voorzien AI-systemen van energie. Mensen moeten de computer laten weten welke normen en waarden zij belangrijk vinden. 
  • AI-systemen helpen mensen bij het vinden van optimale oplossingen voor sommige problemen, maar het is aan mensen om te bepalen welke oplossingen ze willen optimaliseren met AI, en ook om te bepalen wat optimaal is. AI kan goed omgaan met dingen die telbaar zijn, maar lang niet alles wat je kunt tellen telt, en lang niet alles wat telt is telbaar. 
  • Waarin AI-systemen beter zijn dan mensen: hun rekenkracht kan veel groter zijn, ze rekenen – mits goed geprogrammeerd – foutloos, ze raken niet vermoeid, ze kunnen van veel meer voorbeelden leren, ze hebben geen last van emoties, ze nemen consistente beslissingen, ze hebben een perfect en kopieerbaar geheugen en ze kunnen patronen ontdekken die te subtiel zijn voor het menselijk oog. Daarnaast neemt de rekenkracht al decennialang voortdurend toe en worden ook de AI-algoritmen (de rekenrecepten die een computer gebruikt) steeds krachtiger. 
  • Waarin mensen nog steeds beter zijn dan AI-systemen: impliciete of alledaagse kennis, leren van weinig voorbeelden, redeneren over oorzaak en gevolg, abstraheren, generaliseren, energiezuinige informatieverwerking (een menselijk brein verbruikt slechts 20 watt; een supercomputer in de orde van een megawatt – energieverbruik is sowieso een heet hangijzer als het gaat om het trainen en gebruiken van grote AI-systemen zoals ChatGPT). 
  • Zoals elke technologie, heeft AI talloze risico’s. Hier is een selectie: AI kan fouten maken, AI kan vooringenomen zijn, AI kan banen bedreigen en veranderen, AI-beslissingen kunnen onuitlegbaar zijn, AI kan gebruikt worden om desinformatie te creëren, mensen kunnen vaardigheden kwijtraken, mensen kunnen te veel op AI vertrouwen, de samenwerking tussen mens en AI kan verkeerd gaan, en AI kan voor machtsverschuivingen in de maatschappij zorgen. 
  • De Europese AI Act heeft vastgelegd onder welke voorwaarden AI-systemen binnen de EU wel of niet mogen worden toegepast. 
  • Prestatie is iets anders dan competentie. Een test die gemaakt is voor mensen is niet automatisch een goede test voor computers. Regelmatig verschijnen er grafieken in de media die laten zien dat AI op een bepaalde test (bijvoorbeeld begrijpend lezen) beter scoort dan ‘de gemiddelde mens’. Wanneer je de testvragen echter iets anders formuleert, blijken de AI-prestaties vaak sterk te dalen. Robotbedrijf Boston Dynamics haalt regelmatig het nieuws met gelikte filmpjes waarop mensachtige robots allerlei capriolen uithalen. Wat je dan niet ziet is, hoe vaak het in de praktijk misgaat. En wat het bedrijf al helemaal niet laat zien, is dat de robot faalt wanneer je de omgeving een beetje verandert (wat minder licht, hindernissen op een andere plek…). Robuustheid is in de praktijk vaak een probleem. 
  • AI-ontwikkelingen worden vaak geframed als een strijd tussen mens en machine (schaken, go, poker…). In de echte wereld is de samenwerking tussen mens en machine vaak belangrijker (denk aan de samenwerking tussen menselijke en automatische piloot in een vliegtuig). Radioloog Curtis Langlotz van Stanford University formuleerde het zo: “AI vervangt geen radiologen, maar radiologen die AI gebruiken vervangen radiologen die dat niet doen.” 
  • AI-experts zijn geen experts buiten hun vakgebied, maar doen daar vaak boude uitspraken over (Natuurkundige Stephen Hawking over AI als gevaar voor de mensheid; Geoffrey Hinton over AI die radiologen vervangt…) Wantrouw die uitspraken en check ze bij mensen die wel verstand hebben van dat andere domein. 
  • Ook bij AI-nieuws geldt: ‘Follow the Money’. Achter AI-nieuws, zeker wanneer het van bedrijven komt, zitten vaak grote commerciële belangen. En ook wetenschappers zijn natuurlijk op zoek naar financiering voor hun onderzoek en overdrijven niet zelden het belang van hun resultaten. 
  • Het al dan niet slagen van AI-technologie in de praktijk wordt niet alleen bepaald door technologische innovatie, maar net zozeer door sociale innovatie (bereidheid om te veranderen, aanpassen van de organisatie, andere samenwerking tussen mensen, betere samenwerking tussen mensen en AI…) 
  • Zoals veel technologie wordt ook AI op korte termijn vaak overschat, maar op lange termijn onderschat. 

4.    Sceptische vragen bij AI-nieuws


Wantrouw grote AI-claims altijd. Van de fundamentele AI-uitdagingen die in 1955/1956 werden geformuleerd, is er geen enkele volledig opgelost. Bij sommige uitdagingen, zoals beeldherkenning of taalverwerking, is grote vooruitgang geboekt, maar bij andere, zoals causaal redeneren of denken in concepten, maar weinig.

Cognitiewetenschapper Gary Marcus, coauteur van het boek ‘Rebooting AI: Building Artificial Intelligence We Can Trust’, heeft een lijst met zes sceptische vragen opgesteld die journalisten zouden moeten stellen wanneer ze berichten over geclaimde AI-successen:

  • Wat deed het AI-systeem hier in essentie? (Leest een ‘leessysteem’ echt, of markeert het alleen relevante stukjes tekst?) 
  • Hoe algemeen is het resultaat? (Meet een zogenaamde leestaak bijvoorbeeld alle aspecten van lezen, of slechts een klein stukje ervan? Als het getraind is op fictie, kan het dan ook het nieuws lezen?) 
  • Is er een demo waar ik mijn eigen voorbeelden kan uitproberen? (Als dat niet kan, moet je je zorgen maken over hoe robuust de resultaten zijn). 
  • Als de onderzoekers (of hun persvoorlichters) beweren dat een AI-systeem beter is dan mensen, welke mensen dan, en hoeveel beter? (Was het een vergelijking met hoogleraren, die lezen voor de kost, of met verveelde Amazon Mechanical Turk-werknemers die een eurocent per zin betaald krijgen?) 
  • Hoever brengt het slagen in de specifieke taak ons eigenlijk in de richting van het bouwen van echte AI? (Is het een academische oefening, of iets dat gebruikt kan worden in de echte wereld?) 
  • Hoe robuust is het systeem? (Zou het net zo goed kunnen werken met andere datasets, zonder enorme hoeveelheden hertraining? Zou een systeem voor ‘zelfrijdende’ auto’s dat overdag is getraind bijvoorbeeld ook ’s nachts kunnen rijden, of in de sneeuw, of als er een verkeersaanwijzing opduikt die niet in de trainingsdata zit?) 

Voor een uitgebreidere duiding van wat AI wel en niet goed kan, en van de samenwerking tussen menselijke en kunstmatige intelligentie, verwijs ik naar mijn pocketboek ‘Slim, slimmer, slimst – Hoe kunstmatige intelligentie de mens een turboboost geeft’ (New Scientist Pocket Science, 2023).