Boeken

Saturday, September 26, 2020

Mutant in de natuurkunde

Voor de VPRO Gids van deze week schreef ik over de eigenzinnige theoretisch natuurkundige Miranda Cheng. Zij zoekt de wiskunde die het geheim van zwarte gaten onthult, en deed een belangrijke doorbraak.


Miranda Cheng staat centraal in een nieuwe aflevering van de VPRO tv-serie 'Grote Vragen' op donderdag 1 oktober. 

Kijken!


Friday, September 25, 2020

Schrijven aan een nieuw boek: Kunstmatige Intelligentie

Deze week heb ik het contract getekend voor een nieuw boek: 'Kunstmatige intelligentie' in de mooie reeks Elementaire Deeltjes van Singel Uitgeverijen/Athenaeum

Handige en handzame boekjes met antwoord op de vraag: ‘Hoe zit dat nou eigenlijk?’ 

Dat ga ik vertellen over kunstmatige intelligentie. Veel zin in!



Zelfrijdende auto’s die over de snelweg zoeven. Medische-diagnosesystemen die vertellen wat een patiënt mankeert. Software die aan de bel trekt bij frauduleuze creditcardbetalingen. Allemaal voorbeelden van kunstmatige intelligentie, de belangrijkste technologische innovatie van de 21e eeuw.

Maar wat is kunstmatige intelligentie precies? Hoe verschilt het van menselijke intelligentie? Hoe kunnen computers nieuwe dingen leren? Gaan computers slimmer en creatiever worden dan mensen? En hoe kunnen we het het beste van computers combineren met het beste van mensen?

Daarover gaat mijn nieuwe boek.

Bekijk onderstaande video als voorproefje op wat er met AI allemaal kan. Ik heb een stukje tekst ingetikt. Vervolgens heeft de AI-video generator van Synthesia er een video van gemaakt. De presentatrice is AI-gecreëerd en bestaat niet echt; en mijn tekst is omgezet in spraak. Om het goed te laten overkomen moet de AI zorgen dat de bewegingen van mond en gelaat zo natuurgetrouw passen bij de gesproken tekst. Niet perfect, maar toch behoorlijk goed! En dit is nog maar de eerste versie...





Mijn bijdrage aan BNR Digitaal over AI-schrijver GPT-3

Op woensdag 23 september 2020 vertelde ik in BNR Digitaal over GPT-3, de AI-schrijver die de afgelopen weken veel stof deed opwaaien. 

Mijn bijdrage aan de uitzending is terug te beluisteren via https://bnr.nl/gemist 
(wel even datum en tijd intoetsen: 2020-09-23 en 15:15:00). 
Podcast volgt later.



Hapert de slimme computer? Roep er een mens bij.

Hoe houdt de mens nog controle over AI-systemen die steeds slimmer worden? 



Dit artikel is gepubliceerd in NRC Handelsblad van 19 en 20 september 2020

Tesla-auto’s die zelfstandig van rijbaan wisselen en inhalen op de snelweg. Medische-diagnosesystemen die vertellen wat een patiënt mankeert. Software die aan de bel trekt bij frauduleuze creditcardbetalingen. Kunstmatige intelligentie (AI) maakt technische systemen steeds autonomer. AI-systemen kunnen tegenwoordig zelf nieuwe dingen leren, in plaats van dat ze, zoals bij klassieke automatisering, gebaseerd zijn op expliciet uitgeschreven en goed begrepen regels.

Idealiter verbeteren door het zelflerende karakter de prestaties, maar dan moet het ontwerp wel goed zijn. En dat is nou net geen sinecure. Is het ontwerp onvoldoende doordacht, dan liggen fouten op de loer, zoals de Tesla-auto die in maart 2018 in Californië pardoes tegen een betonnen wegafscheiding op knalde. Het officiële onderzoeksrapport gaf de schuld aan technisch falen van zowel de automatische piloot als het automatische remsysteem. 

Ook discriminerende of onuitlegbare beslissingen zijn een reëel gevaar. En zelfs de meest geavanceerde AI-systemen hebben meestal maar heel weinig gezond verstand en zijn vaak eenvoudig te foppen. Plak een psychedelisch sticker naast een banaan en de slimme computer ziet de banaan voor een broodrooster aan.

Als geautomatiseerde systemen steeds slimmer worden, steeds meer op eigen houtje leren, hoe kunnen we er dan voor zorgen dat ze ook blijven doen wat ze moeten doen, en dat ze ze zich blijven houden aan onderliggende menselijke waarden als privacy en gelijke behandeling? Hoeveel controle kan en moet een mens nog hebben over steeds slimmere computersystemen?

Lees het hele artikel op de website van NRC Handelsblad.




Sunday, September 13, 2020

Het brein als voorspellingsmachine

In de eerste aflevering van de achtdelige VPRO-serie Grote vragen bezoekt cognitiewetenschapper Floris de Lange plekken die zijn fascinatie voor de menselijke psyche aanwakkerden. ‘Het brein is geen Zwitsers zakmes.’


Dit artikel is gepubliceerd in de VPRO Gids van 5 september 2020


Je kijkt op een scherm naar een ronddraaiend masker, bol aan de voorkant, hol aan de achterkant. De neus steekt uit, de lippen zijn licht getuit, de ogen lijken die van een dodenmasker. Op het moment dat je verwacht de achterkant van het masker te zien, zie je opnieuw de voorkant voorbij draaien. Vreemd. Het lukt je hersenen maar niet om het masker van de achterkant, de holle kant, te zien.

Dit is een van de vele illusies die aantonen dat het brein al een verwachting heeft van wat het gaat zien. Anderzijds illustreert deze illusie ook hoezeer ons brein is voorgeprogrammeerd om gezichten op te merken. Gezichten zijn zo belangrijk voor de mens dat we zelfs in twee puntjes en een haakje al een lachend gelaat herkennen. We kunnen gezichten ontwaren in wolken, rotspartijen, in het maanoppervlak, ja, in wat dan ook. ‘Zien doen we veel meer met ons brein dan met onze ogen,’ zegt Floris de Lange, hoogleraar waarneming en cognitie aan de Radboud Universiteit Nijmegen. ‘Dat is heel anders dan de passieve manier waarop een camera beelden ziet. Het brein registreert beeld, geluid of tast niet op een passieve manier, maar het speelt een actieve rol. Het gebruikt interne modellen die de directe waarneming interpreteren. Dat is handig. Zo stellen die modellen ons in staat om ons dingen voor te stellen, ook als je ze op dat moment niet waarneemt. Modellen geven ons brein verbeeldingskracht. Modellen maken van het brein een voorspellingsmachine.’

Lees het hele artikel in de VPRO Gids.

AI in journalism : with power come responsibilities

Media organisations worldwide show a growing awareness and adoption of artificial intelligence for information gathering, storytelling and news distribution. Given the potential transformative power of AI in journalism, media organisations must consider how best to use AI tools to fulfill their mission. They should reflect on the impacts that AI in journalism has on democracy, diversity and public values.



This article was published on September 9, 2020 by the European Science Media Hub (ESMH)

In its December 2019 issue, The Economist published an interview with a piece of artificial intelligence (AI), called GPT-2. GPT-2 was trained to generate text and in the interview it answered questions about the state of the world in 2020. On the question ‘What is the future of AI?’ the bot replied: “It would be good if we used the technology more responsibly. In other words, we should treat it like a utility, like a tool. We should put as much effort into developing the technology as necessary, rather than worrying that it’s going to harm us and destroy our lives.”

GPT-2 does not really understand what it says, and although its answers in the interview are a bit vague and general, its performance is still pretty impressive. Earlier this year, OpenAI, the developer of GPT-2 already introduced its successor GPT-3, which is a lot more powerful. Automatic text generation is one of many examples that show the potential power of AI used by the media.

In June 2019 the European Science-Media Hub (ESMH) already published an article on AI in journalism, following a three-day summer school for young journalists and students in Strasbourg on that topic. What have been the most important developments and discussions since then?

Read the whole article on the website of the ESMH.

Self-driving vehicles start understanding pedestrians and cyclists

This article was published online by ACM News on August 12, 2020




For a driverless vehicle, it matters a lot whether it is driving around in Phoenix, AZ —where many current large-scale tests take place—or in Amsterdam, capital city of the Netherlands. Compared to Phoenix, the roads in Amsterdam are narrower, might involve bridges over canals, and are generally less structured. The weather in Amsterdam is also unstable and often includes showers, but the biggest difference lies in the traffic composition. In the Dutch capital there are many more cyclists and pedestrians on the streets than in Phoenix, getting up close to the vehicles and not always obeying traffic rules.

In the center of Amsterdam, a self-driving vehicle would have to make decisions constantly: does the pedestrian who is suddenly crossing the road see the vehicle? What is the woman with a child on the back of her bike planning to do? At the Netherlands' Delft University of Technology, Dariu Gavrila is leading the Intelligent Vehicles research group. Gavrila focuses on the interaction between self-driving vehicles and vulnerable road users, such as pedestrians and cyclists. Gavrila received the IEEE ITS Outstanding Research Award 2019 for his long-term work on active vulnerable road user safety.

Read the whole story on the website of ACM News