Showing posts with label De Ingenieur. Show all posts
Showing posts with label De Ingenieur. Show all posts

Sunday, February 21, 2021

AI made in Europe

How should Europe respond to the lightning-fast AI developments in China and the US? Three AI experts give answers from academic, business and society perspective. 

This article was published in the Dutch monthly technology magazine De Ingenieur in February 2021. The magazine kindly gave permission to publish a freely available English translation of the original article.


What should Europe do from an academic perspective?  

The EU countries may have jumped into the air after the election of Joe Biden as the new president of the US, but it is expected that the EU will be much more dependent on itself than before, also under Biden’s presidency. This also applies in the field of artificial intelligence (AI). The U.S. will once again start to strengthen ties with the EU more than under Donald Trump, but mainly because of a common interest in the geopolitical battle against China.

China wants to be the world leader in the field of artificial intelligence by 2030. To do so, it has drawn up a concrete roadmap: first catch up, become world leader in a few AI areas in five years, and lead in the entire AI field in ten years. The US, the current world leader in many AI fields, has turned more inward in recent years. Also in the field of AI, the rule in the US is: own business first.

Holger Hoos is professor of machine learning at Leiden University and chairman of the board of CLAIRE, an organization founded by the European AI community. CLAIRE’s goal: to make Europe a world leader in human-centered, reliable AI. How does he think the EU should respond to AI developments in China and the US?

Hoos: “In the US, industry is leading, in China the government. The best niche for Europe is to focus on human-centered AI: ‘AI for Good, AI for All’. Let’s develop AI that is in line with European values and benefits all citizens. For example, think of AI that contributes to the 17 Sustainable Development Goals set by the UN.”

Hoos emphasizes that the EU can only become a world leader in human-centered AI if it also shows leadership in AI technology development and basic research. Hoos: “It is wrong to think that we can buy technology from the US or China and then roll it out in Europe. You will only get human-centered AI if you build it from the ground up yourself according to the European values that we consider important. And we will also have to do the fundamental research ourselves and not leave it to the big American tech companies.”

In recent years, the EU has shown itself decisive when it comes to regulating digital technology, for example with the adoption of the GDPR law in 2018 (for protecting the data and privacy of European citizens), and with the imposition of fines on tech companies that do not comply with European rules. Hoos agrees that the EU should also lead the world in AI regulation, but issues a warning: “You cannot be a world leader in regulation without also being a world leader in AI technology and research.”

Although the EU itself does not want to talk about a global AI race between Europe, the US and China, the fact is that there is far more demand for AI expertise and talent worldwide than supply. Companies are eager to buy AI talent rapidly away from universities. Hoos sees a great danger in this: “It’s not good when the best people go to work in the private sector and not in the public sector. And it’s also not good when the best European AI developers go to work en masse for American business.”

How can we keep talent in Europe when American companies offer sky-high salaries? Hoos would like to see Europe set up an equivalent of the Human Genome Project. That public project provided a counterweight to the private project to unravel the human genome. The information generated by the unraveling of the human genome was not to become private property, but had to remain in the public domain. Hoos: “We should do something like that in the AI field as well. Yes, it will cost money, but I am convinced that this investment will pay off twice over.”

What is still lacking in Europe, however, according to Hoos, is cooperation and critical mass. “In the Netherlands the Dutch AI Coalition has been founded. Nice, but how much energy are they putting into European cooperation? Very little. The same goes for Germany, where I come from. So you get too much annoying competition. The fact is that European countries are too small on their own to compete with China and the US. We have to work together, we have no other choice.”

That’s why the European AI research community created CLAIRE, for collaboration across Europe and in all areas of AI, from machine reasoning to machine learning. Hoos: “National governments need this kind of leverage initiative to achieve Europe’s ambitious goals. Look at the success of CERN in Geneva. That’s the kind of impact and success we need to pursue with human-centered AI.”

What should Europe do from a business perspective?

Maarten de Rijke is University Professor of AI at the University of Amsterdam and director of the ICAI: Innovation Center for Artificial Intelligence, which was founded in 2018. He is also vice president of Personalization and Relevance at Ahold Delhaize. As someone who has one foot in the university world and the other in the corporate world, what does he think Europe should do in response to the US and China?

“First of all, Europe should keep control of data, algorithms, digital infrastructure and rules of the game for algorithms. We need to stop sending all our data to a US based cloud. We need to build our own infrastructure. Second, encourage public-private partnerships. That is exactly what we are aiming for with ICAI. Europe must pull much harder on such collaborations. For example, set up living labs for AI experiments. If we try nothing, we learn nothing. And thirdly, set hard rules for example for the storage and transmission of data."

ICAI now consists of 16 labs spread across seven Dutch cities, with more on the way. In these labs, knowledge institutions work together with companies such as Ahold Delhaize, Qualcomm, Elsevier, ING and KPN, but also with a government agency such as the Dutch Police. Together they work for five years on AI research projects. PhD students work one or two days a week in the R&D department of a company.

De Rijke is not afraid that universities will lose their independence through these collaborations with industry. On the contrary. “Universities must address social issues,” he says. “‘Great science with great impact’ is our motto. It is precisely because of this collaboration that university researchers are able to come up with new questions. For example: how do you make a certain application scalable? Or: How do you provide a safety guarantee for algorithms in a self-driving car?”

‘United in diversity’ is the official motto of the EU. Europe is diverse in cultures, languages and values. And also diverse in the tastes of different AI communities: diverse tastes of machine reasoning and diverse tastes of machine learning, the two main branches of AI. “All this diversity is precisely what Europe can use to its advantage,” concludes De Rijke. “Within the EU, we can make different products with different flavors for different cultures.”

What should Europe do from a society perspective? 

When an AI application is accepted across the EU, there is a good chance that the application can be rolled out with confidence elsewhere in the world, agrees Catelijne Muller, president of ALLAI, an independent organization promoting responsible AI technology. She was a member of the EU High Level Expert Group on AI that advised the European Commission in recent years. “My message — which is the same as the one of the High Level Expert Group — is that Europe needs to commit to responsible AI,” Muller says. “On the one hand, AI must comply with existing laws. On the other hand, the EU must create new laws if they are currently lacking for certain AI applications. In the EU High Level Expert Group on AI, we have drawn up seven ethical guidelines that AI must comply with. In doing so, we started from universal human rights.”

Muller is convinced that if Europe takes the time to develop responsible AI, it will eventually be better equipped. “Then we will get better AI, which is safer, more robust and with minimal negative effects. You see in the U.S. what happens when you don’t. Some U.S. states have banned facial recognition in public spaces or banned surveillance robots on the street.”

That responsible AI development would come at the expense of the speed of innovation Muller finds short-sighted. “Regulation is not there to make life harder,” she says. “Nor for companies. In fact, regulation also ensures that companies can operate on a level playing field.”

Her own organization ALLAI, together with the Dutch Association of Insurers, has translated the seven European guidelines for ethical AI application into seven guidelines for the use of AI by Dutch insurers. Muller: “Insurance companies have a lot of data with which they can estimate the probability that someone will suffer damage. But how should they deal with that data? You can go further and further: taking driving behavior into account, mapping routes...What do we find acceptable and what not? That’s what the guidelines we’ve jointly drawn up provide an answer to.”

The EU is currently working on a Digital Service Act, which should create a new legal framework for digital services and also curb the disproportionate power of big tech companies. In doing so, the EU is trying to deftly navigate between the interests of individuals, society and business. But for now, the EU seems more successful in playing referee than in playing world leader in AI research and technology. Europe has a lot of potential in the AI field, Europe has world-class research, but the real will for European AI cooperation is still missing.

--------------------------------------------------------------

European AI in figures

AI research:

Europe has 50% more AI researchers than the US, and twice as many as China.

Europe publishes 32% of all AI papers. For the past 20 years, Europe has led the world.


AI hubs:

(1. San Francisco. 2. New York. 3 Boston. 4. Beijing. 5. London...50. Amsterdam.)

US: 18 of the top 25

Asia: 4 of the top 25

Europe: 3 of the top 25


Private AI investments:

US: 46%

China: 36%

Europe: 8%

Rest: 10%



AI companies per million employed:

US: 10.5

Europe: 3.1

China: 0.3

--------------------------------------------------------------

AI in European business


The five largest Western tech giants are American, and all are also strong in AI: Amazon, Apple, Facebook, Google (Alphabet) and Microsoft. Their business strategies have shifted in two decades from ‘digital first’ to ‘mobile first’ to ‘AI first’. China’s three largest tech companies Alibaba, Baidu and Tencent are all also betting heavily on AI. To be the world leader in the AI field by 2030, as is the big Chinese goal, the government is working closely with the business community, very differently than in the U.S. and in Europe.

What are the big tech companies in Europe? Few can name them. Recently, chip machine manufacturer ASML from Veldhoven in the Netherlands became the most valuable European tech company, ahead of German software company SAP. ASML uses plenty of AI, mainly to adjust the machines' settings based on the data generated by the chip machines.

Other European companies that are using AI to the fullest include e-commerce companies such as Zalando and Booking, DeepL (a translation engine that works at least as well as Google Translate), music service Spotify and meal delivery companies such as Deliveroo, Takeaway and HelloFresh. In addition, Europe has traditionally always been strong in industrial robotics in which AI is used extensively, for example for image recognition. This includes companies such as Swiss-Swedish ABB, and the originally German Kuka, which came into Chinese hands in 2016 — an acquisition that Germany has since regretted. Of more recent years is Denmark’s Universal Robots, which has become the world leader in lightweight, flexible robotic arms. The German car industry is also betting heavily on AI, mainly to make cars more autonomous.

Outside of robotics, there is one European AI company that has quickly gained world fame: London-based and founded DeepMind, made famous by their computer AlphaGo which managed to beat the best human go-player in 2016. DeepMind is an AI company with the ultimate goal of mimicking human intelligence in a machine. It was founded in 2010 and sold to Google in 2014 for an estimated more than 600 million euros.

Telecom giant Skype is also European in origin. It was founded in 2003 by a Swede, a Dane and four Estonians, but sold to American Microsoft in 2011. The sale of Kuka, DeepMind and Skype shows how vulnerable the European tech sector is to takeovers from the US and China.

--------------------------------------------------------------

COVID-19 impact on AI


Frenchman Jean Monnet, one of the founding fathers of the European Union, once said, “Europe will be forged in crises, and will be the sum of the solutions adopted for those crises.” This is an oft-cited quote that also hits the nail on the head in the current COVID-19 crisis. Many technology analysts expect the current pandemic to accelerate the implementation of AI in the public and private sectors by five to ten years.

How will Europe deal with this?

What was until recently met with a lot of resistance — working from home, home schooling, tele-meeting, tele-conferencing, eHealth — this year suddenly turned out to be possible and sometimes even beneficial. The experiences gained, positive and negative, will lead to new and better AI products and services. Smart application of AI makes countless business processes more efficient. Some companies can move from physical stores to online stores and, thanks in part to machine translation, extend their reach from their own country to the entire world.

The COVID-19 crisis also further exposed Europe’s dependence on U.S. tech companies. Within months of the outbreak of the pandemic, tech giant Amazon established itself in Italy. That country hardly had a good e-commerce infrastructure, unlike the Netherlands where, for example, a company like Bol.com was already big.

But especially in a crisis, where we tend to want to do everything quickly, it is important to ensure responsible AI development. That is why the independent Dutch organization ALLAI has launched a new project: ‘Responsible AI & Corona’. ALLAI is setting up an observatory to monitor which AI applications are being accelerated (e.g. AI controlling the 1,5-meter distance in public spaces). ALLAI is also developing a QuickScan to help organizations assess whether a particular AI application is technically, legally and ethically sound.

--------------------------------------------------------------

Hyperlinks

EU-report ‘AI — A European perspective’: https://publications.jrc.ec.europa.eu/repository/bitstream/JRC113826/ai-flagship-report-online.pdf

European Parliament and AI AI: https://epthinktank.eu/2020/11/26/stoa-establishes-a-centre-of-dialogue-and-expertise-on-ai/

High-Level Expert Group on Artificial Intelligence: https://ec.europa.eu/digital-single-market/en/high-level-expert-group-artificial-intelligence

WRR Working Paper ‘Internationaal AI-beleid’ (2019): https://www.wrr.nl/publicaties/working-papers/2019/06/12/internationaal-ai-beleid

McKinsey-report (October 2020): How nine digital frontrunners can lead on AI in Europe: https://www.mckinsey.com/business-functions/mckinsey-digital/our-insights/how-nine-digital-front-runners-can-lead-on-ai-in-europe





Monday, February 8, 2021

AI made in Europe

Hoe moet Europa antwoorden op de razendsnelle AI-ontwikkelingen in China en de VS? Drie AI-experts geven antwoorden vanuit universitair-, bedrijfs- en maatschappelijk perspectief: prof. Holger Hoos, prof. Maarten de Rijke en Catelijne Muller. 



Dit artikel is gepubliceerd in technologietijdschrift De Ingenieur van februari 2021

De EU-landen mogen dan een gat in de lucht zijn gesprongen na de verkiezing van Joe Biden tot de nieuwe president van de VS, de verwachting is dat de EU ook onder Bidens presidentschap veel meer dan vroeger op zichzelf aangewezen zal zijn. Dat geldt ook op het terrein van kunstmatige intelligentie (artificial intelligence - AI). De VS zullen de banden met de EU weer meer gaan aanhalen dan onder Donald Trump, maar dan vooral vanwege een gemeenschappelijk belang in de geopolitieke strijd tegen China.

China wil in 2030 wereldleider zijn op het terrein van kunstmatige intelligentie. Daarvoor heeft het een concreet stappenplan opgesteld: eerst de achterstand inlopen, over vijf jaar wereldleider worden op enkele AI-terreinen, en over tien jaar in het hele AI-veld voorop lopen. De VS, op vele AI-terreinen de huidige wereldleider, heeft zich in de afgelopen jaren meer naar binnen gekeerd. Ook op AI-gebied geldt in de VS: eigen bedrijfsleven eerst.

Holger Hoos is hoogleraar machine learning aan de Universiteit Leiden en voorzitter van de raad van bestuur van CLAIRE, een organisatie die is opgericht door de Europese AI-gemeenschap. Doel van CLAIRE: Europa wereldleider maken op het gebied van mensgerichte, betrouwbare AI. Hoe vindt hij dat de EU moet reageren op de AI-ontwikkelingen in China en de VS?

Hoos: “In de VS is het bedrijfsleven leidend, in China de overheid. De beste niche voor Europa is om ons te richten op AI waarin de mens centraal staat: ‘AI for Good, AI for All’. Laten we AI ontwikkelen die in overeenstemming is met de Europese waarden en die ten goede komt aan alle burgers. Denk bijvoorbeeld aan AI die bijdraagt aan de 17 doelen van duurzame ontwikkeling die de VN heeft opgesteld.”

Hoos benadrukt dat de EU alleen wereldleider in mensgerichte AI kan worden wanneer het ook leiderschap toont in de ontwikkeling van AI-technologie en in het fundamentele onderzoek. Hoos: “Het is verkeerd om te denken dat we technologie uit de VS of China kunnen kopen om het daarna in Europa uit te rollen. Mensgerichte AI krijg je alleen als je het van de grond af aan zelf bouwt volgens de Europese waarden die wij belangrijk vinden. En ook het fundamentele onderzoek zullen we zelf moeten doen en niet moeten overlaten aan de grote Amerikaanse tech-bedrijven.”

Lees het hele artikel in De Ingenieur 

Wednesday, May 13, 2020

Gezond verstand - De donkere materie van de kunstmatige intelligentie

Het Allen Institute for Artificial Intelligence in Seattle doet een grootschalige poging om kunstmatig intelligente machines eindelijk het gezonde verstand te geven dat elk tienjarig kind al heeft. 

Ik sprak met dr. Yejin Choi, die een groot onderzoeksproject naar gezond verstand in slimme machines leidt.




Op een dikke tak van een boom zit een mensachtige robot. Met zijn ene hand houdt hij de tak vast, met zijn andere hand zaagt hij dezelfde tak door. Alleen doet hij dat precies aan de verkeerde kant: hij zaagt tussen de stam en hemzelf en heeft niet door dat hij weldra naar beneden kukelt. Het is een plaatje dat informatici vaak gebruiken om het gebrek aan gezond verstand van onze huidige slimme machines te illustreren.

Dat gebrek leidt ook in het echt tot missers, soms knullig, soms dodelijk. Plak een paar stickers op een stop-bord en de computer denkt dat het bord een snelheidslimiet aangeeft. Een schoolbus die door een ongeluk dwars op de weg is beland, wordt door de computer voor een sneeuwruimer aangezien. In 2018 verongelukte de eigenaar van een Tesla-auto die op de autopilot reed omdat de auto een tijdelijke betonnen afscheiding tussen twee weghelften niet herkende.

Ook met het automatisch begrijpen van teksten gaat veel mis. Neem deze zin: ‘Nikola Tesla verhuisde in 1880 naar Praag.’ Een slim vraag-antwoordsysteem kan de vraag: ‘Waarheen verhuisde Tesla in 1880?’ correct beantwoorden met ‘Praag’. Fijn. Maar voeg aan de eerste zin de nieuwe zin ‘Thompson verhuisde in 1881 naar Chicago’ toe en de computer antwoordt op de vraag ‘Waarheen verhuisde Tesla in 1880?’ plotseling ‘Chicago’. Computers zijn razend goed in het herkennen van statistische patronen in taal — de reden waarom automatisch vertalen redelijk goed werkt — maar ze begrijpen taal in de verste verte niet zoals mensen dat doen.

In al deze voorbeelden is het verschil tussen mens en machine iets wat gezond verstand heet. Gezond verstand gaat over een basisniveau van praktische kennis en praktisch redeneren dat mensen in alledaagse situaties gebruiken. Het is alledaagse kennis die wordt gedeeld door de meeste mensen: water is nat; als je de deur van je koelkast open laat, bederft het voedsel; wie lacht, is waarschijnlijk blij — dat soort zaken. Tien jaar oude kinderen bezitten het volop, maar bij machines ontbreekt dit soort kennis grotendeels.

Lees de rest van het verhaal in de papieren editie van het meinummer van technologietijdschrift De Ingenieur.


Hier zijn een aantal interessante hyperlinks:

Onderzoek naar computers met gezond verstand bij het Allen Institute for AI (AI2): https://mosaic.allenai.org and https://www.paulallen.com/tech-innovations/ai-common-sense-project-alexandria (Project Alexandria is inmiddels omgedoopt tot Mosaic)

Yejin Choi: https://homes.cs.washington.edu/~yejin/

Doe-het-zelf-demo’s: https://mosaickg.apps.allenai.org

ATOMIC — An Atlas of Machine Common sense for If-Then Reasoning: https://homes.cs.washington.edu/~msap/atomic/

Common Sense knowledge graphs: https://mosaic.allenai.org/projects/commonsense-knowledge-graphs

Mosaic common sense benchmarks: https://mosaic.allenai.org/projects/mosaic-commonsense-benchmarks

Visual common sense reasoning: https://visualcommonsense.com

Project Aristo probeert een computer te laten slagen voor een middelbare school-examen biologie: https://allenai.org/aristo

Project CYC: https://www.cyc.com en https://en.wikipedia.org/wiki/Cyc

NELL (Never-Ending Language Learner): http://rtw.ml.cmu.edu/rtw/

Wednesday, November 13, 2019

"Dingen die peuters al beheersen zijn vaak het moeilijkst voor robots"


Voor het novembernummer van technologietijdschrift De Ingenieur interviewde ik Berkeley-hoogleraar Pieter Abbeel 

“Als hoogleraar wil ik voor het grote doel gaan: robots bouwen die net zo goed leren als mensen. Maar als oprichter van mijn eigen bedrijf Covariant.ai moet ik zorgen dat robots nú goed werken voor een klant.”

Aan het woord is Pieter Abbeel (42), een van de wereldleiders op het terrein van lerende robots. Hij is directeur van het Berkeley Robot Learning Lab, hoogleraar aan de Universiteit van Berkeley (Californië, VS) en oprichter van het net twee jaar oude start-up bedrijf Covariant AI. Aan de universiteit ontwikkelt hij kunstmatige intelligentie (AI) om robots sneller nieuwe taken te laten leren. Met zijn bedrijf ontwikkelt hij automatisering die toegepast wordt in de praktijk van onder andere de maakindustrie, de logistiek en de detailhandel. Robotarmen die een grotere variëteit aan producten kunnen oppakken en verplaatsen bijvoorbeeld.

Het volledige interview is te lezen in de papieren editie van De Ingenieur.

Hoe moderne AI op oude obstakels stuit


Deze boekrecensie is verschenen in technologietijdschrift De Ingenieur van oktober 2019

Het Amerikaanse bedrijf Boston Dynamics trekt al jarenlang de aandacht met indrukwekkende robotvideo’s. Neem de humanoïde robot Atlas die op twee krachtige benen een hindernisparcours aflegt. Hij springt over boomstammen en stapt blokken op en af. Uitleg geeft het bedrijf nooit. Vragen van journalisten beantwoordt het niet. En dus blijft de vraag: hoe robuust zijn deze robots echt? Vertonen ze hun kunstjes ook als we de omgeving een beetje veranderen?

In hun net verschenen boek Rebooting AI onthullen psycholoog en ondernemer Gary Marcus en hoogleraar informatica Ernest Davis dat robot Atlas voor de parcours-video 21 pogingen nodig had om er eentje te laten lukken. Nog erger: verplaats een blok een beetje, dim het licht, schilder de muren donker en de robot struikelt. Elk kind dat heeft leren lopen doet dat beter. De robotvideo’s van Boston Dynamics maken ons lekker met een illusie.

In Rebooting AI bespreken de auteurs natuurlijk de indrukwekkende prestaties die kunstmatige intelligentie (AI) recent heeft geleverd: automatische vertaling, gezichtsherkenning, voorwerpherkenning, spraakherkenning, rij-ondersteuning in de auto. Maar Marcus en Davis maken zich vooral zorgen dat we de huidige AI te veel vertrouwen. Een zelfrijdende auto die 95% van de tijd feilloos rijdt, bijvoorbeeld op voorspelbare snelwegen, maar in de stad om de haverklap brokken maakt, is levensgevaarlijk.

Ondanks het succes van zoekmachines bij het schiften van informatie op het world wide web begrijpen computers nog steeds niet wat ze lezen. Neem dit beroemde, uit slechts vijf woorden bestaande verhaaltje: “Te koop: babyschoentjes. Nooit gedragen.” Mensen trekken hieruit de conclusie dat er waarschijnlijk een baby is overleden en de schoentjes daarom te koop zijn. Dat staat nergens letterlijk. Ons begrip stoelt op kennis van de wereld en van de taal, op gezond verstand en causaal redeneren. Geen computer die dit korte verhaal begrijpt, laat staan een complexe roman van een paar honderd pagina’s.

AI heeft fundamentele beperkingen die meer computerkracht en meer data niet oplossen, beargumenteren Marcus en Davis. De achilleshiel is dat onze wereld complex, dynamisch en open is. Er kan een vrijwel oneindig aantal onvoorziene dingen gebeuren. Huidige AI is sterk gebaseerd op het leren van duizenden voorbeelden en kan daar niet mee omgaan. Er is vaak geen tijd om eerst van duizenden voorbeelden te leren. Een zelfrijdende auto moet in een fractie van een seconde de juiste beslissing nemen.

De AI worstelt al sinds haar begin als wetenschappelijke discipline in 1956 met deze achilleshiel. De aanpak die in de eerste decennia de boventoon voerde, symbolische AI, was gebaseerd op het vatten van kennis in symbolen en regels, en daarmee logisch redeneren. Ook die aanpak liep tegen beperkingen aan. In het afgelopen decennium werd de symbolische AI overvleugeld door lerende AI en dan met name deep learning.

De oude aanpak is slecht in het leren van nieuwe dingen. De nieuwe aanpak is slecht in het begrijpen van de wereld. En zo komen Marcus en Davis in Rebooting AI bij hun recept voor de toekomst: combineer de oude en de nieuwe AI, en vul de mix aan met nog te ontwikkelen nieuwe AI-instrumenten. Net als mensen zullen ook machines een aantal aangeboren vaardigheden moeten hebben: een basaal begrip van tijd, ruimte en causaliteit. Daarmee kunnen ze een intuïtief psychologisch en natuurkundig begrip ontwikkelen. Wat gaat er in andere mensen om? Hoe gedragen voorwerpen zich onder invloed van de zwaartekracht?

Vervolgens moeten machines leren redeneren met onzekere informatie. Al deze vaardigheden moeten machines verbinden met het waarnemen van de omgeving, het manipuleren ervan, en natuurlijk met taal. Dat stelt ze in staat om net als mensen cognitieve modellen van de wereld op te bouwen. Met zo’n totaalpakket kunnen machines op een flexibele, mensachtige manier een heleboel verschillende vaardigheden leren. Van deep learning naar deep understanding.

Gemakkelijker gezegd dan gedaan, maar het valt te prijzen dat Rebooting AI de AI-hype van het broodnodige realisme voorziet. De helderheid, de nuchterheid en de inzichten uit niet alleen de informatica, maar ook de psychologie en de taalkunde maken dit het beste populair-wetenschappelijke AI-boek van de afgelopen jaren. “Het echte gevaar is niet superintelligentie, maar idiot savants met macht”, besluiten de auteurs.


Gary Marcus en Ernest Davis. Rebooting AI − Building artificial intelligence we can trust. Pantheon Books. 273 pag.

Thursday, October 17, 2019

Ideeënversneller - Machines krijgen eindelijk verbeeldingskracht

Een nieuwe AI-techniek laat computers voor het eerst nieuwe dingen bedenken: van foto’s, video’s, stemmen en kunstwerken tot nieuwe medicijnen en materialen.



Dit artikel is gepubliceerd in het oktobernummer van De Ingenieur 

Over een digitaal canvas vliegt een vlinder met blauwe vleugels. Alsof hij een penseel in zijn hand heeft trekt hij bruine strepen over het zwarte doek. Er duiken nog twee vlinders op. Of is het dezelfde vlinder op meerdere plekken tegelijk? Onder het fladderen van de vleugels vult het canvas zich met vlinderpaden. Zo ontstaat het kunstwerk ‘Beast on a leash’ (‘Beest aan een lijn’) (https://www.jeroenvandermost.com/#/beast-on-a-leash/), een project van kunstenaar Jeroen van der Most, uitgevoerd samen met kunstmatige intelligentie (AI).

Van der Most werkte tien jaar geleden nog als marktonderzoeker en analyseerde sociale media-data. Maar hij kon zijn creativiteit onvoldoende kwijt en zette een radicale stap. Hij werd beeldend kunstenaar en ging kunstmatige intelligentie gebruiken om een nieuw soort kunst te maken: “Ik noem het een duo-kunstenaarschap tussen mens en machine.” Gebogen over zijn iPad vertelt hij aan de hand van zijn kunstwerken hoe ze tot stand kwamen. “Ik zie kunstmatige intelligentie als de volgende stap in de kunst. De mens bedenkt het hoofdidee en de AI zorgt voor de visuele vertaling. Het interessantste vind ik dat zo’n duo-kunstenaarschap ons als mensen voor nieuwe vragen stelt: Wat is creativiteit? Kan een machine ook creatief zijn? Zo ja, wat is dan nog het verschil tussen mens en machine? Komt de kunstenaar ooit buiten spel te staan?”

Lees het hele artikel in de papieren editie van het oktobernummer van De Ingenieur.

Wednesday, April 10, 2019

Het Internet is toe aan een nieuwe architectuur

Precies 50 jaar geleden werd het eerste zaadje voor ons huidige Internet geplant. Toen heette dat het Arpanet. Nu heeft ons Internet dringend een nieuwe architectuur nodig. 

"Het Internet moet op de schop daar is geen ontkomen aan" aldus Kees Neggers, voormalig directeur van SURFnet. "De noodzaak is er, technisch weten we hoe het moet, waarom doen we het dan niet? Je kunt je toch niet voorstellen dat straks zelfrijdende auto’s en het internet der dingen afhankelijk gaan zijn van het huidige krakkemikkige Internet?”


Dit artikel is gepubliceerd in het aprilnummer van De Ingenieur.

Het is een wonder dat ons huidige Internet nog steeds draait op een architectuur die in de jaren zestig en zeventig is ontwikkeld. Het is namelijk hoog tijd om over te stappen op een fundamenteel nieuwe architectuur, vindt Kees Neggers, voormalig directeur van SURFnet, het computernetwerk voor hoger onderwijs en onderzoek in Nederland.

Neggers is een Nederlandse internetpionier van het eerste uur die is opgenomen in de Internet Hall of Fame. Hoewel hij al zeven jaar met pensioen is, gaat het Internet hem nog steeds aan het hart. Hij vertelt vol passie over hoe het anders zou kunnen en moeten: “Het Internet is een schitterend ongeluk. Het is zeer succesvol en we kunnen niet meer zonder. Maar we moeten het zien als een prototype. Het is bedacht om onderzoekers die elkaar vertrouwen op een paar computers met elkaar te laten samenwerken. Maar het is helemaal niet in die vorm ontworpen om wereldwijd uitgerold te worden. En het is al helemaal niet bedacht voor allerlei realtime-diensten zoals Skype of Netflix. Het Internet moet op de schop, daar is geen ontkomen aan.”

Lees de rest van het artikel in het aprilnummer van De Ingenieur.

Tuesday, July 24, 2018

Slimme computers moeten de wereld ook begrijpen

Wie een week rondloopt bij de belangrijkste conferentie over kunstmatige intelligentie, ziet vooral het gapende gat tussen de stand van de wetenschap en de mediahype over almachtige machines.



In de warmste week in Stockholm in drie decennia vond dit jaar van 13-19 juli de International Joint Conference on Artificial Intelligence (IJCAI) plaats. Wie iets betekent of wil betekenen in het vakgebied kunstmatige intelligentie hoorde daar bij te zijn. Peetvaders van lerende computers als Yann LeCun en Yoshua Bengio gaven er lezingen, jonge onderzoekers presenteerden hun werk, grote techbedrijven probeerden talent te werven en de belangrijkste prijzen van het vakgebied werden er uitgereikt. Zo ontvingen onderzoekers van DeepMind de Marvin Minsky Medaille voor hun baanbrekende werk aan de go-spelende computer die jaren eerder dan verwacht de mens definitief van het bord veegde.

IJCAI is de oudste en ’s werelds grootste wetenschappelijke conferentie over kunstmatige intelligentie die alle deelgebieden bestrijkt: van machinaal leren (dit jaar verreweg het grootste deel van de conferentie), computer vision en natuurlijke taal-verwerking tot planning, zoeken, games, kennisrepresentatie en robotica. De eerste IJCAI-conferentie vond in 1969 plaats, dertien jaar nadat het vakgebied werd geboren en de naam ‘kunstmatige intelligentie’ werd gemunt. Inmiddels trekt de conferentie vele duizenden onderzoekers van over de hele wereld.

Hoogleraar kunstmatige intelligentie Frank van Harmelen van de VU, gespecialiseerd in kennisrepresentatie en redeneren, bezoekt de conferentie al jaren. Gevraagd naar de opvallendste ontwikkelingen die dit jaar onderscheidt van de afgelopen jaren, vertelt hij: “Sneller dan ik had verwacht zie ik een samensmelting ontstaan tussen de oude aanpak van kunstmatige intelligentie − die van redeneren en kennisrepresentatie − met de nieuwe aanpak, die de laatste jaren zoveel succes heeft geboekt: die van lerende computers, met name door deep learning. Het besef breekt door dat deep learning niet alles oplost.”

Lees het hele artikel op de website van De Ingenieur.

Ontwikkelaars van kunstmatige intelligentie spreken zich uit tegen killer robots

Op ’s werelds grootse wetenschappelijke conferentie over kunstmatige intelligentie (IJCAI) werd in Stockholm op dinsdag 17 juli een petitie gepresenteerd tegen de ontwikkeling en het gebruik van dodelijke autonome wapens, in de volksmond vaak killer robots genoemd.


De petitie is ondertekend door meer dan 2400 wetenschappers, ingenieurs en CEO’s werkzaam in kunstmatige intelligentie en robotica, alsmede door meer dan 160 bedrijven en organisaties. Onder de ondertekenaars zijn Elon Musk, Google DeepMind, de Europese Vereniging voor Kunstmatige Intelligentie en pioniers van kunstmatige intelligentie zoals Yoshua Bengio en Stuart Russell. Ook talloze Nederlandse wetenschappers en ingenieurs hebben de petitie inmiddels ondertekend.

Namens het initiatief nemende Future of Life Institute presenteerde MIT-hoogleraar Max Tegmark de petitie tijdens zijn IJCAI-lezing over hoe kunstmatige intelligentie ten goede van iedereen kan komen. Kunstmatige intelligentie kan de wereld veel goeds bieden, vertelde Tegmark, maar moet niet gebruikt worden om wapens autonoom, zonder menselijke tussenkomst, mensen te laten doden.

Lees het hele artikel op de website van De Ingenieur.

Tuesday, May 1, 2018

Deep learning is zeer succesvol, maar maakt van computers nog lang geen mensen

Lerende computers stapelen al vijf jaar lang succes op succes. Maar hun beperkingen worden ook steeds duidelijker.

Dit artikel is gepubliceerd in het mei-nummer van De Ingenieur 

Wie de afgelopen jaren het nieuws over kunstmatige intelligentie ook maar een beetje heeft gevolgd, ontkwam niet aan de schijnbare magie van ‘deep learning’, een techniek waarmee computers nieuwe dingen leren (zie kader). Dankzij deep learning versloeg een go-computer de menselijke wereldkampioen. Apple gebruikt de techniek in de spraakherkenning van telefoonhulpje Siri, Facebook tagt er automatisch foto’s mee en Google Translate vertaalt er teksten mee. Vorig jaar ontdekten sterrenkundigen mede dankzij hun lerende computers twee nieuwe exoplaneten in de data van de Keplertelescoop.

So far so good. Hoe breder deep learning echter wordt uitgerold, hoe vaker ook haar beperkingen komen bovendrijven. Begin dit jaar publiceerde de Amerikaanse hoogleraar psychologie Gary Marcus een artikel dat inzoomt op precies die beperkingen (https://arxiv.org/abs/1801.00631). Het artikel leidde tot duizenden reacties op Twitter en een levendig inhoudelijk debat. Marcus is niet zomaar iemand die vanaf de zijlijn commentaar geeft. Hij richtte in 2015 zijn eigen bedrijf Geometric Intelligence op, dat computers efficiënter wilde laten leren. Eind 2016 verkocht hij het aan Uber.

Marcus weet waar hij het over heeft, en hij kreeg behalve kritiek (onder andere dat hij te weinig de successen vierde) ook veel bijval. Zelfs de vader van deep learning, de Britse cognitief psycholoog en informaticus Geoffrey Hinton, zei dat er waarschijnlijk geheel nieuwe methodes uitgevonden moeten worden om computers echt mensachtige intelligentie te laten vertonen.

Het gevaar van het succes van deep learning is dat al te veel mensen zijn gaan geloven dat zulke kunstmatige mensachtige intelligentie om de hoek ligt. Dat leidt weer om de haverklap tot zwaar overtrokken nieuwskoppen als deze van CNN: “Computers are getting better than humans at reading” (http://money.cnn.com/2018/01/15/technology/reading-robot-alibaba-microsoft-stanford/index.html). Wie iets dieper graaft, ziet meteen dat de computer helemaal geen leesbegrip heeft ontwikkeld, maar wel op bepaalde vragen over Wikipedia-teksten de relevante tekstpassages kan markeren. Best knap, best nuttig, maar het is maar een klein onderdeel van wat het betekent om begrijpend te lezen.

De Canadese hoogleraar en deep-learning-expert Yoshua Bengio zei over zulke overdrijvingen vorig jaar: “We zijn nog steeds heel ver van kunstmatige intelligentie op menselijk niveau.”

Datahonger

Van alle wetenschappers heeft Marcus tot nu toe het meest zijn best gedaan om ook de beperkingen van deep learning expliciet te maken en voorstellen te doen voor verbeteringen.

Eerst de beperkingen. Deep learning heeft een onverzadigbare honger naar data. Hoe meer data, hoe beter de techniek werkt. Maar met weinig data staat deep learning met de mond vol tanden. En dat is in de echte wereld een probleem, omdat er voortdurend situaties opduiken die niet eerder zijn gebeurd. Een baby leert uit slechts enkele voorbeelden het gezicht van zijn moeder of vader te herkennen. Op een of andere manier kan het menselijk brein uitgaande van weinig voorbeelden abstraheren en generaliseren. Informaticahoogleraar Stuart Russell van de Universiteit van Berkeley (VS) zei over de datahonger: “Voor de meeste toepassingen, zoals in de gezondheidszorg of het onderwijs, hebben we modellen nodig en niet alleen veel data.”

Daarnaast ontdekt deep learning weliswaar correlaties in data, maar niet automatisch de oorzakelijke verbanden. Uit de data van het aantal verdrinkingen per seizoen en de ijsjesverkoop per seizoen zou de techniek concluderen dat er een sterk verband is tussen het aantal verdrinkingen en het aantal verkochte ijsjes. Dat die twee geen oorzakelijk verband met elkaar hebben, maar veroorzaakt worden door hoge of lage temperaturen, komt er niet uit rollen.

Dit probleem heeft op haar beurt weer een dieper liggende oorzaak: deep learning-systemen beschikken tot nu toe niet over wat we vaak ‘gezond verstand’ noemen: de grote hoeveelheid alledaagse, impliciete achtergrondkennis die mensen van jongs af aan hebben opgebouwd en voortdurend blijven uitbreiden. In de zestigjarige geschiedenis van kunstmatige intelligentie is er maar weinig vooruitgang geboekt om computers te voorzien van dit soort ‘gezond verstand’-kennis. Zoals Marcus schrijft: “Deep learning loopt vast in nieuwe problemen die een open einde hebben. Wat is de beste manier om een fiets te repareren waarbij een stuk touw tussen de spaken is gekomen? Geen bestaande trainingsset gaat ons dat vertellen.”

Deep learning werkt heel goed wanneer computers spellen zoals go spelen, omdat de spelregels exact bekend zijn en nooit veranderen. Maar de echte wereld verandert voortdurend en ook dat is een probleem. Bij elke verandering moet de computer eerst wachten tot er miljoenen nieuwe voorbeelden beschikbaar zijn om van te leren. Deep learning werkt goed in een statische maar niet in een dynamische wereld.

Deep learning kan vaak ook gemakkelijk en op bizarre manieren voor de gek worden gehouden. Onderzoekers van Google ontwikkelden vorig jaar een psychedelische sticker die beeldherkennende computers fopte. De computers herkennen normaal gesproken prima een banaan of een pen. Maar plak de psychedelische sticker naast een banaan of een pen, en de computers zien ze allebei voor een broodrooster aan. Dat zou een vierjarig kind nooit gebeuren. Wanneer een zelfrijdende auto straks net zo gemakkelijk te foppen is, kan dat desastreuze gevolgen hebben.

Ten slotte is een probleem van alle beslissingen die met deep learning worden genomen dat ze niet transparant zijn. Waarom heeft de computer precies die en niet een andere beslissing genomen? Zelfs de programmeurs kunnen dat zelden uitvogelen omdat de informatie op een diffuse manier verspreid ligt in het neurale netwerk. In dit opzicht zijn deep-learning algoritmen zwarte dozen. En als ze dat al voor programmeurs zijn, zijn ze dat zeker voor burgers, politici en rechters.

Voor het gebruik van bijvoorbeeld Google Translate mag dat black-box-karakter dan nauwelijks een probleem zijn, dat geldt niet zodra deep learning-algoritmen worden gebruikt om te bepalen wie wel of niet een bepaalde lening krijgt, of een medische scan wel of niet een bepaalde tumor toont, of iemand wel of niet op de no fly-lijst van een vliegtuigmaatschappij hoort en of een medewerker zodanig onderpresteert dat hij ontslagen mag worden. Van al deze toepassingen zijn in de afgelopen jaren praktijkvoorbeelden opgedoken waarin computers de verkeerde beslissingen over mensen namen.

Uitgangspunt zou daarom moeten zijn dat hoe groter de potentiële gevolgen van een computerbeslissing voor burgers of consumenten zijn, hoe beter uitgelegd moet kunnen worden waarom de computer die beslissing heeft genomen. Dat principe staat ook aan de basis van een nieuwe Europese wet die op 25 mei 2018 van kracht wordt: de General Data Protection Regulation (GDPR). Werk aan de winkel dus voor overheidsinstanties en bedrijven die hun deep learning-algoritme belangrijke beslissingen over mensen willen laten nemen.

Intelligentie is meer dan perceptie
Deep learning is een prachtige techniek en we gaan er nog vele jaren plezier aan beleven, maar de toepassingen zijn beperkter dan de meeste media tot nu toe hebben gemeld. Om tot kunstmatige mensachtige intelligentie te komen hebben we andere technieken en nieuwe inzichten nodig, daarover zijn de meeste onderzoekers binnen de kunstmatige intelligentie het wel eens. Marcus vat dat als volgt samen: “Deep learning is goed in sommige aspecten van perceptie, vooral categoriseren. Maar perceptie is meer dan categoriseren en intelligentie is meer dan perceptie. Tot intelligentie behoren ook taal, redeneren, analogieën leggen, plannen en gezond verstand.”

Marcus doet een aantal voorstellen om kunstmatige intelligentie een volgende stap te laten zetten richting mensachtige intelligentie. De eerste is dat lerende computers minder door mensen bij de hand genomen moeten worden en meer op eigen houtje moeten kunnen leren. De meeste toepassingen van deep learning gebruiken nu nog data die door mensen van een label zijn voorzien. Computers die objecten op foto’s herkennen, zijn getraind aan de hand van losse foto’s van objecten als handen, honden en huizen. Hierbij hebben mensen handmatig van te voren al hebben aangegeven: ‘dit is een voorbeeld van een hand, dit van een hond en dit van een huis’.

Mensen leren ook deels zo, maar kunnen daarnaast ook nieuwe dingen leren zonder dat iemand ze bij de hand neemt. Marcus: “Kinderen creëren soms voor zichzelf een nieuwe taak, zoals een toren van lego-blokjes bouwen of door een kleine opening klimmen, zoals mijn dochter recent deed toen ze door de open ruimte tussen de zitting en de rug van een stoel wilde kruipen. Dit soort exploratieve probleemoplossing vereist het zelfstandig stellen van doelen en het integreren van abstracte kennis, zoals hoe lichamen en voorwerpen zich gedragen en welke verschillende soorten openingen er zijn.”

De tweede uitbreiding die volgens Marcus nodig is, is het oppoetsen van de klassieke manier waarop de kunstmatige intelligentie eind jaren vijftig begon: het redeneren op basis van expliciet geprogrammeerde regels. Marcus: “Met de tweede wet van Newton − kracht = massa × versnelling − kunnen we krachten berekenen voor alle mogelijke massa’s en versnellingen, niet alleen voor massa’s en versnellingen die eerder al eens in een dataset zijn voorgekomen. De juiste manier om vooruit te komen zou kunnen zijn om deep learning, dat uitblinkt in classificeren, te integreren met symbolische systemen, die uitblinken in redeneren en abstraheren.”

Marcus trekt een vergelijking met wat we weten over de werking van het menselijk brein. Het hersengedeelte dat waarnemingen verwerkt, doet dat ongeveer op de manier van deep learning. Maar andere gebieden in het brein, zoals het gebied dat spraak produceert of het gebied dat zich met planning van handelingen bezig houdt, lijken op een veel hoger abstractieniveau te werken.

Er is geen enkele noodzaak om het menselijk brein een-op-een op een computer na te bootsen om tot kunstmatige mensachtige intelligentie te komen, maar het gebruiken van inzichten uit onder andere de psychologie, de linguïstiek, de neurowetenschappen en de filosofie ziet Marcus wel als een noodzaak − en met hem een groeiend aantal andere wetenschappers. Geoffrey Hinton, de vader van deep learning, zei vorig jaar: “De wetenschap schrijdt met één begrafenis per keer voort. De toekomst hangt af van een student die alles wat ik heb gezegd betwijfelt.”

---------------------------------------------------------------------------------

Kader - Wat is Deep Learning?

Deep learning is de nieuwe naam voor wat al decennialang bekend staat onder de naam ‘neurale netwerken’. In essentie is deep learning een statische methode die patronen herkent in grote hoeveelheden data. En die data kunnen van alles zijn: getallen, tekst, geluid of beeld. De manier waarop dat leren gebeurt is een sterk vereenvoudigde versie van de manier waarop het menselijk brein leert. Een netwerk van kunstmatige neuronen wordt verdeeld in lagen. De neuronen worden met elkaar verbonden en de sterkte van die verbindingen verandert tijdens het leerproces. Elke laag neemt een deel van de patroonherkenning voor zijn rekening. Stel dat een netwerk getraind wordt om beelden te herkennen, dan detecteren diepere lagen de meest basale beeldeigenschappen, bijvoorbeeld randen. Hogere lagen detecteren complexere vormen. En de hoogste lagen herkennen uiteindelijk complete voorwerpen. De term ‘deep’ slaat op het aantal lagen van het neurale netwerk. Traditionele neurale netwerken bestonden slechts uit een handvol lagen. Diepe neurale netwerken tellen tientallen tot soms zelfs honderden lagen. Deep learning kon pas een succes worden met de beschikbaarheid van grote hoeveelheden data om van te leren, en met voldoende grote computerkracht en efficiënte algoritmen.

Update dd 27 maart 2019: drie grondleggers van Deep Learning, Yoshua Bengio, Geoffrey Hinton en Yann LeCun, krijgen de Turing Award toegekend voor hun baanbrekende werk. De Turing Award is de hoogste onderscheiding in de informatica, vergelijkbaar met de Nobelprijs in natuurkunde, scheikunde of geneeskunde.  

Thursday, January 28, 2016

Go computer Go!


"In de westerse wereld hebben jullie schaken, maar Go is onvergelijkelijk veel subtieler en intellectueler."

Dat zijn de woorden van de beste Go-speler van de afgelopen tien jaar, de Zuid-Koreaan Sedol Lee. Maar zelfs het millennia oude Aziatische bordspel Go is niet meer veilig voor de computer. Het computerprogramma AlphaGo heeft de eer voor het eerst een menselijke professional, drievoudig Europees kampioen Fan Hui, te hebben verslagen. Het werd 5-0 voor de computer in een match van vijf wedstrijden.

Nature publiceerde op 27 januari een wetenschappelijk artikel van de hand van de ontwikkelaars van AlphaGo.

Klik op onderstaande afbeelding om mijn radiobijdrage aan Met het Oog op Morgen van woensdag 27 januari hierover te beluisteren:



Voor de website van De Ingenieur schreef ik het artikel Computer ontrafelt Go-mysterie

In NRC Handelsblad van 28 januari verscheen een ander artikel over deze doorbraak in de kunstmatige intelligentie: "Computer kraakt Go"


In 2011 schreef ik voor KIJK uitgebereid over Spelende supercomputers, die dammen, schaken, Go, of Jeopardy meester worden, inclusief een historisch overzicht van "Computer tegen Mens".

Over supercomputer Watson die de quiz Jeopardy won, schreef ik in NRC Handelsblad het artikel 'Wie is de beste quizspeler: computer of mens?'

De technieken die Watson gebruikt, worden geschikt gemaakt voor toepassingen in de gezondheidszorg, zoals ik in het artikel Dr. Watson voor De Ingenieur schreef.

Saturday, January 16, 2016

Groeispurt kunstmatige intelligentie


Kunstmatige intelligentie geldt als een van de veelbelovende technologieën met mogelijk grote maatschappelijke gevolgen. Bennie Mols, auteur op dit terrein, belicht de hoogtepunten die geweest zijn 2015 en gaan komen in 2016.

Als geen ander is kunstmatige intelligentie een onderwerp voor verstrekkende toekomstbespiegelingen. Zal de intelligente machine straks de mens de baas zijn, hebben we de ontwikkeling nog wel onder controle? Begin vorig jaar waren die vragen aanleiding voor bekende namen als Elon Musk en Stephen Hawking om op te roepen tot een de mens dienende kunstmatige intelligente.

Maar waar staan we eigenlijk op dit ogenblik? Want grote vergezichten zijn belangrijk om te bespiegelen, voorlopig is de praktijk van de kunstmatige intelligentie een andere. Het is al een prestatie van formaat nu het lukt een computer een spelletje te laten spelen.

Dus eerst maar eens de nuchtere feiten: wat heeft kunstmatige intelligentie in 2015 gepresteerd en wat staat er dit jaar op de agenda. Een overzicht.

Lees hier het hele artikel.

Wednesday, April 22, 2015

More afraid of stupid people than of smart machines

Here is the column that I have read yesterday at a debate in De Balie about the chances and risks of artificial intelligence, on request of the technology magazine De Ingenieur.

I have also written a Dutch version, which can be read here.

This is the flattering reaction on Twitter of Frank van Harmelen, professor in Knowledge Representation & Reasoning at the Free University in Amsterdam.



Okay, here's my column:

“Technology has given life the opportunity to flourish like never before...or to self-destruct.”

This is not a sentence that I have made-up myself. These are the swollen words of the Future of Life institute. The institute investigates the impact of the development of superintelligent computers and robots. In an open letter the institute calls for the development of artificial intelligence whose positive impact is maximized and whose negative impact is minimized. Who would not want that?

There is only one problem: any technology can be used both for the good and for the bad. With a knife, you can cut bread, or someone’s throat. A robot plane that kills terrorists, can in the hands of terrorists just as easily kill innocent civilians. Nothing human will be alien to the robot of the future.

The international media have interpreted the open letter as a warning against superintelligence. Of course. For decades the media have enthusiastically covered predictions about computers and robots outsmarting and eventually subduing humans.

However, the reality of today and also of the coming decades, is much less sexy. Let me quote Pedro Domingos, an American top researcher in the field of artificial intelligence. He says, and I quote: “Everybody’s so worried about computers becoming really, really smart and taking over the world, whereas in reality what’s happened right now is computers are really, really dumb and they’ve taken over the world. The world cannot function without computers anymore. It would be better if they were smarter.” End of quote.

One of the founders of the Future of Life institute, Victoria Krakovna, reacted surprised about the one-sided focus of the media on superintelligence. What a surprise! That’s what you get when you let the whole world know that you investigate artificial intelligence in the context of − and I quote again − “existential risks facing humanity”.

The Future of Life institute should emphasize that all intelligent systems are still a collaboration between human and artificial intelligence. But yeah, that sounds a lot less sexy.

In this cooperation the smart machine will do tasks in which it excels: rapidly processing information, infallible memory and never getting tired. Humans will do the things they do much better than the machine: understanding the context, understanding intentions and emotions, using creativity, developing ethical norms and values.

The cooperation between man and machine can be a matter of life or death. Let me illustrate this with two examples.

Two weeks ago it was disclosed that on December 14, 2014 the automatic pilot of a Scottish plane of the company Loganair had directed the plane into an almost fatal crash. The plane was hit by lightning. The autopilot ran crazy and steered the plane into a steep descent. The autopilot even blocked the quick intervention of the human pilot. Barely twenty seconds before the plane would have crashed, the human pilot managed to pull up the plane in a final attempt.

Much less fortunate were the passengers of the Turkish Airlines plane that flew to Amsterdam on February 25, 2009. As the plane approached Schiphol Airport and flew at an altitude of six hundred meters, the altimeter suddenly showed minus two meters. The automatic pilot concluded that the aircraft had already landed and rapidly diminished the engine power. The human pilots understood this mistake too late and the plane crashed near Schiphol. There were 9 deaths and 120 injured.

These are two examples of the Automation Paradox. The Automation Paradox states that the more automation, the more crucial is the human intervention in case the thinking machine makes a mistake. And there is always a chance for a mistake.

With increasing automation, we will increasingly hit against this paradox. Automation shifts the point where mistakes are made: for example, from operators, pilots and drivers to the programmers who write the software and to the interaction between human and machine.

The Automation Paradox has two causes. First, people tend to trust machines more than their own common sense. This can lead to an over-reliance on automation. Second, more automation means less practice for human operators. This increases the risk on an accident in case the human has to correct the machine, just like in the accident with the Turkish Airlines plane.

To tackle the paradox, we need to consider humans as an integral part of any artificially intelligent system. And to ensure that operators remain sufficiently trained in their human skills, we occasionally need to switch off automated systems during training sessions.

According to the open letter of the Future of Life institute, artificial intelligence can contribute to the worldwide eradication of poverty and disease. Unfortunately, non-technological problems are never solely solved by technology. Smart computers and robots will only make mankind more successful when we put humans and not machines in the heart of our thinking. Our challenge for the future is how to combine the best of two different worlds: the best of human and the best of artificial intelligence. In this effort we should be more afraid of stupid people than of smart machines.

Banger voor domme mensen dan voor slimme machines

Tijdens een debat over de kansen en risico's van kunstmatige intelligentie gisteren in De Balie, las ik een Engelstalige column voor. Hier is de Nederlandse versie, ook gepubliceerd op de website van technologietijdschrift De Ingenieur:

“Technologie heeft het leven de gelegenheid gegeven om te floreren als nooit te voren…of om zichzelf te vernietigen.”

Deze tekst heb ik niet zelf verzonnen, dit zijn de ronkende woorden van het Future of Life-instituut. Het instituut onderzoekt de gevolgen van de ontwikkeling van slimme computers en robots tot bovenmenselijk niveau. In een open brief roept het instituut op kunstmatige intelligentie te ontwikkelen waarvan de positieve gevolgen maximaal zijn en de negatieve gevolgen minimaal. Zelden heb ik een grotere open deur gehoord. Wie wil dat nou niet?

Er is alleen één probleem: elke technologie kan goedschiks of kwaadschiks worden gebruikt. Met een mes kun je een brood snijden, of iemand de keel doorsnijden. Een robotvliegtuig dat terroristen neerschiet, kan in de handen van terroristen net zo gemakkelijk onschuldige burgers dood schieten. Niets menselijks is de toekomstige robot vreemd.

De internationale media hebben de open brief opgevat als een waarschuwing tegen superintelligentie. Natuurlijk. Media smullen al decennialang van het verhaal dat computers en robots mensen overvleugelen. De realiteit van vandaag en van de komende decennia is echter veel minder sexy. Pedro Domingos, een Amerikaanse toponderzoeker op het terrein van de kunstmatige intelligentie, zegt het als volgt: “Iedereen is zo bang dat computers heel slim worden en de wereld overnemen, terwijl de realiteit is dat computers heel dom zijn en de wereld al hebben overgenomen. We kunnen geen dag zonder ze; de wereld functioneert niet meer zonder computers. Het zou beter zijn wanneer ze slimmer zouden zijn.”

Een van de oprichters van het Future of Life-instituut, Victoria Krakovna, reageerde verbaasd op de eenzijdige focus van de media op superintelligentie. Eigen schuld, dikke bult. Dat krijg je ervan wanneer je zelf rond toetert dat je kunstmatige intelligentie onderzoekt in de context van − en ik citeer − “existentiële risico’s waarvoor de mensheid staat”.

Het Future of Life-instituut had veel beter kunnen benadrukken dat de intelligente systemen van de toekomst een samenwerking tussen menselijke en kunstmatige intelligentie zullen zijn. Maar ja, dat klinkt veel minder sexy.

In die samenwerking doet de slimme machine waarin hij uitblinkt: razendsnel informatie verwerken, een feilloos geheugen en nooit moe worden. De mens doet wat hij beter kan: het begrijpen van de context, het begrijpen van intenties en emoties, het gebruiken van creativiteit, het ontwikkelen van normen en waarden. Dat de samenwerking tussen mens en machine een kwestie is van leven of dood wil ik illustreren aan de hand van twee voorbeelden.

Twee weken geleden werd bekend dat op 14 december 2014 de automatische piloot van een Schots vliegtuig van Loganair het toestel bijna liet crashen. Het vliegtuig was getroffen door de bliksem. De automatische piloot sloeg op hol en stuurde het toestel steil naar beneden. De automaat hield zelfs het ingrijpen van de menselijke piloot tegen. Nauwelijks twintig seconden voor het toestel zou crashen, lukte het de menselijke piloot in een uiterste poging om het toestel weer omhoog te trekken.

Veel minder geluk hadden de passagiers van het Turkish Airlines toestel dat op 25 februari 2009 naar Amsterdam vloog. Toen het vliegtuig Schiphol naderde en op zeshonderd meter hoogte vloog, gaf de hoogtemeter plotseling min twee meter aan. De automatische piloot trok de conclusie dat het vliegtuig al geland moest zijn en verminderde razendsnel het motorvermogen. De menselijke piloten begrepen deze fout te laat en het toestel crashte vlakbij Schiphol. Er vielen 9 doden en 120 gewonden.

Dit zijn twee voorbeelden van de Paradox van de Automatisering. De Paradox van de Automatisering stelt dat hoe meer automatisering, hoe crucialer ingrijpen door de mens wanneer de denkende machine toch een fout maakt. En die kans is er altijd.

Met de toenemende automatisering, zullen we steeds vaker tegen deze paradox aan lopen. Automatisering verschuift het punt waarop fouten worden gemaakt: van bijvoorbeeld operators, piloten en chauffeurs naar de programmeurs die de software schrijven en naar de interactie tussen mens en machine.

De Paradox van de Automatisering heeft twee oorzaken. Ten eerste hebben mensen de neiging om machines eerder te vertrouwen dan hun eigen gezonde verstand. Dat kan leiden tot een te groot vertrouwen in automatisering. Ten tweede kan meer automatisering ertoe leiden dat menselijke operators minder vaardig worden wanneer ze onverhoopt toch moeten ingrijpen. Om de paradox te lijf te gaan, moeten we de mens als een integraal onderdeel van een kunstmatige intelligent systeem beschouwen. En om te zorgen dat operators hun menselijke vaardigheden voldoende blijven trainen, moeten we automatische systemen af en toe uitschakelen.

Volgens de open brief van het Future of Life-instituut kan kunstmatige intelligentie bijdragen aan het wereldwijd uitbannen van armoede en ziekte. Helaas worden niet-technologische problemen nooit alléén maar opgelost door technologie. Slimme computers en robots zullen de mensheid alleen maar succesvoller maken wanneer we niet de machine, maar de mens centraal stellen. De uitdaging voor de toekomst is hoe we het beste van menselijke en kunstmatige intelligentie combineren. Daarbij moeten we banger zijn voor domme mensen, dan voor slimme machines.

Wednesday, February 18, 2015

Engelen met superintelligentie


Dit artikel is verschenen in technologietijdschrift De Ingenieur van februari 2015

Eind dertiende eeuw stortten Franse theologen zich op de vraag hoeveel engelen er op de punt van een naald passen. Een verhit debat: Is een engel materieel of immaterieel? En als een engel materieel is, waaruit bestaat hij dan? Hoe groot is een gemiddelde engel? De wetenschappelijke revolutie die in de zestiende eeuw begon, leek een definitieve waterscheiding in te luiden tussen wetenschap en religie.

Maar in de 21e eeuw is er een wetenschappelijke discipline - die van de kunstmatige intelligentie - die een verdacht veel op religie lijkende stroming heeft geïnitieerd (vooral onder mensen die zelf helemaal geen computers of robots bouwen, maar er alleen maar over filosoferen). Het begon allemaal met de popularisatie van het idee van een ‘Singulariteit’ door futurist Ray Kurzweil: het moment waarop computers slimmer worden dan mensen.

Het boek Superintelligence van filosoof Nick Bostrom is een nieuwe verkenning van de gevolgen van de ‘Singulariteit’. Volgens Bostrom kan superintelligentie realiteit zijn tussen 2075 en 2090. Het valt te prijzen dat Bostrom in veel meer details treedt en veel meer scenario’s verkent dan Kurzweil deed. Maar het is een hoogst academisch boek geworden, waaraan de geïnteresseerde niet-academicus zich maar beter niet kan wagen. Het is saai, overdreven moeilijk en extreem speculatief.

Volgens Bostrom moeten we ons zorgen maken dat superintelligentie de mens zou kunnen uitroeien. “Before the prospect of an intelligence explosion, we humans are like small children playing with a bomb”, schrijft Bostrom. Het grote probleem met Bostroms verkenningen is dat hij veel te grote stappen vooruit in de tijd neemt. Bij elke stap neemt de onzekerheid toe.

Verder overschat Bostrom schromelijk de rol van intelligentie in het maatschappelijke en politieke spel. De Amerikaanse Unabomber was een slimme wiskundige die een groot gevaar werd voor de samenleving. Sommige terroristen zijn analfabeet en ook een groot gevaar voor de samenleving. Waarom zou Bostrom dan ook maar iets zinnigs kunnen zeggen over het gevaar van superintelligentie?

Ten slotte zijn er, als het gaat om de toekomst van de mensheid, veel reëlere problemen dan superintelligentie: burgeroorlogen, infectieziekten, gebrek aan onderwijs, corruptie, ondervoeding, vervuild drinkwater en slechte sanitaire voorzieningen, om er maar een paar te noemen.

De vraag hoe we ons moeten verdedigen tegen superintelligente computers die de mensheid in gevaar brengen is de moderne versie van de vraag hoeveel engelen er op de punt van een naald passen.

Nick Bostrom. Superintelligence − Paths, dangers, strategies. Oxford University Press, 2014

Friday, September 12, 2014

Dr. Watson - Supercomputer als arts-assistent

Supercomputer Watson, ontwikkeld door IBM, won drie jaar geleden de Amerikaanse tv-quiz Jeopardy. Nu is hij omgeschoold om artsen te helpen sneller en gebaseerd op meer informatie een diagnose te stellen en een behandelmethode te bepalen. 


                Credit: IBM

Dit artikel is verschenen in De Ingenieur, september 2014


De hoeveelheid medische informatie verdubbelt elke vijf jaar. Dan gaat het in de eerste plaats om medische vakliteratuur en resultaten van klinische trials, maar ook scans, foto’s en elektronische patiëntengegevens. Geen arts die al deze informatie nog volledig in zich op kan nemen. Maar een computer die thuis is in de medische wereld en ook nog onze taal begrijpt, kan een arts helpen om die explosief groeiende hoeveelheid informatie te schiften, te evalueren en te interpreteren. En dat is precies het idee achter IBM Watson als gezondheidsexpert.

IBM’s Watson won begin 2011 de Amerikaanse tv-quiz Jeopardy. Watson verpletterde de twee beste menselijke spelers uit de historie van deze moeilijke kennisquiz. Voor het eerst was er een machine die gecompliceerde menselijke taal, inclusief alle uitdrukkingen begreep en ook nog razendsnel antwoorden gaf.

Voor IBM was Jeopardy niet meer dan een showcase, maar wel een uitdagende en tot de verbeelding sprekend. Het bedrijf zag in Watson van begin af aan al een rol als expert in uiteenlopende domeinen zoals gezondheidszorg, detailhandel, financiële wereld en de wereld van olie- en gasexploratie. Gezondheidszorg werd het eerste speerpunt.

Rijp voor de markt

Marc Teerlink is Chief Business Strategist van de IBM Watson Group. Hij is opgeleid als psycholoog en laat zijn licht schijnen over de rol van Watson in de gezondheidszorg van de nabije toekomst. 

“Na Jeopardy zijn we twee jaar lang bezig geweest om Watson om te scholen tot gezondheidsexpert”, vertelt Teerlink. “Daarbij stonden we voor talloze nieuwe uitdagingen, die moeilijker waren dan bij Jeopardy. Welke soorten data moet Watson evalueren? Hoe betrouwbaar zijn die data? Is klinische trial X wel even betrouwbaar als klinische trial Y? Hoe zorgen we ervoor dat twee verschillende gezondheidsinstellingen gegevens met elkaar kunnen combineren zodat uiteindelijk de patiënten er beter van worden? Hoe maken we Watson als dienst geschikt voor elk mobiel platform?”

In de afgelopen twee jaar heeft IBM de eerste vijftien klanten aan zich weten te binden. Het zijn geen klanten die zomaar software kopen, maar klanten waarmee IBM een partnerschap aangaat. Twee van die klanten zijn Memorial Sloan Kettering in New York en het University of Texas MD Anderson Cancer Center, beide behorende bij de top van de Amerikaanse kankercentra.

Memorial Sloan Kettering stelde 25.000 patiëntencasussen aan IBM beschikbaar. “Prachtig natuurlijk”, zegt Teerlink, “maar vervolgens heb je wel menselijke experts nodig om die casussen te evalueren. Heeft Watson het wel goed begrepen? En wat moet je doen als twintig artsen zeggen dat Watson het goed doet, maar vijf artsen zeggen dat Watson het verkeerd doet? Watson leert door interactie met artsen. Officieel hebben deze kankercentra nu nog een pilotversie van Watson, maar we zijn de pilotfase bijna voorbij. Begin dit jaar hebben we geconcludeerd: we weten nu hoe we er een praktische dienst van kunnen maken.”

Een van de ervaren artsen die meehielp om Watsons aanbevelingen te evalueren was professor Herbert Chase van Columbia University (VS). Teerlink vertelt hoe Chase er dankzij Watson achter kwam dat hij zelf, ondanks zijn enorme ervaring, bij een patiënte de ziekte van Lyme over het hoofd had gezien. Zelfs de beste menselijke artsen maken fouten, soms omdat ze vooroordelen hebben, soms omdat ze gewoon niet alle beschikbare informatie kunnen overzien. Watson kan in de orde van honderd miljoen pagina’s medische informatie per seconde lezen. Een menselijke arts krijgt dat nooit voor elkaar. “Natuurlijk blijft het de arts die de beslissing neemt, maar Watson ondersteunt hem daarbij”, zegt Teerlink. “Het mooie van Watson is dat hij altijd de bronnen laat zien waarop hij zijn aanbevelingen baseert. En die bronnen kan de arts dan weer checken.”


                Credit: IBM

Watson denkt in de Cloud

De gebruiker kan Watson straks aanroepen via willekeurig welke apparaat, van pc tot smartphone. Centraal in Watson staan drie vaardigheden: het begrijpen van taal; het leren van gebruikers, van nieuwe informatie en van eerdere interacties; en tenslotte het genereren van hypotheses over diagnoses of behandelingen. “Watson als dienst werkt tot nu toe alleen nog voor de Engelse taal”, zegt Teerlink. “We werken aan andere talen, maar dat gaat nog een tijdje duren. Wat betreft het Nederlands kan ik op dit moment alleen maar zeggen dat Watson wel al met Nederlandstalige bronnen kan werken. Aan de interactie in vragen en antwoorden in het Nederlands werken we nog. Hou dit najaar maar onze nieuwsberichten in de gaten.”

Zoals altijd met nieuwe technologie kent ook de gezondheidszorg early adopters en late adopters. Teerlink: “Hoe meer we Watson gaan uitrollen, hoe meer we tegen de late adopters aan lopen. Er is een groep artsen en specialisten die ongelofelijk positief is. Maar er is ook een sceptische groep. Sommigen maken zich zorgen om hun eigen rol als expert. Anderen maken zich zorgen om de data.”

Wat de eerste zorg betreft, is het duidelijk dat het uitrollen van Watson vraagt om een andere training van artsen. De rol van de machine in het bijhouden en vergelijken van medische informatie wordt steeds groter. Dat betekent dat artsen minder uit het hoofd zullen hoeven te leren en minder zelf op zoek hoeven te gaan naar informatie. Maar ze zullen nog steeds de waarde van Watsons aanbevelingen moeten beoordelen. En ze zullen die aanbevelingen zo goed mogelijk moeten integreren in het complexe medische beslissingsproces.

Wat betreft de tweede zorg, dwingen de nieuwe mogelijkheden van Watson om na te denken over ethische kwesties rond het delen van data, zegt Teerlink. “Watson als gezondheidsexpert is een cloud-gebaseerde dienst. Op verschillende geografische locaties zullen servers staan. Sommige data zullen Europa niet mogen verlaten, terwijl andere data de VS niet uit mogen. De waarde van data zal toenemen en dat zal er weer voor zorgen dat een nieuw type functie in de medische wereld ontstaat: die van chief data officer.”

Cognitieve technologie

Medische expertsystemen worden al sinds de jaren zeventig ontwikkeld. Maar decennialang waren ze alleen maar gebaseerd op steeds ingewikkelder wordende ‘als-dan’-regels. Dat bleek onvoldoende. Veel te vaak waren er uitzonderingen. Dankzij de nieuwste taaltechnologie en de nieuwste automatisch lerende technieken, worden medische expertsystemen zoals Watson eindelijk een aanwinst voor de gezondheidszorg. Nu gaat het om cognitieve expertsystemen, die een deel van de menselijke cognitie zoals taalvermogen, redeneervermogen en lerend vermogen op de computer nabootsen.

Teerlink hoopt dat artsen en verplegend personeel meer tijd gaan hebben voor menselijke aandacht omdat machines steeds meer van de informatieverwerking gaan doen. “Ik hoop dat cognitieve technologie over vijf tot tien jaar gemeengoed is geworden. Mijn droom is dat de markt inziet dat vermenselijking van technologie essentieel is. Als je technologie moeilijker maakt, moet je het ook vermenselijken. Let wel, ik zou nooit willen dat cognitieve technologie het hele beslissingsproces overneemt. Waar ik voor pleit, en dat is ook het principe van IBM: always show the evidence. Watson toont de gebruiker waar hij zijn kennis vandaan heeft gehaald en hoe betrouwbaar hij zijn antwoorden inschat. We moeten ons echter wel blijven realiseren dat hoe meer onze samenlevens draait om informatie, hoe meer eisen gesteld worden aan ons eigen kritische denken.”





[kader:]
Watson maakt de arts slimmer
De overvloed aan medische informatie blijkt uit de volgende cijfers:

13.000 ziekten, syndromen en verwondingen
6.000 medicijnen
4.000 procedures voor medische handelingen en operaties
honderden richtlijnen
meer dan 10.000 ‘datapunten’ in het elektronisch patiëntendossier van een ‘gemiddelde’ patiënt

Dankzij een combinatie van het begrijpen van taal, het leren van interactie met artsen en patiënten en het genereren van hypothesen over diagnose of behandeling kan IBM Watson deze overvloed aan medische informatie te lijf gaan. Arts en Watson samen zijn dan een stuk slimmer dan ieder van hen afzonderlijk. Nog verder in de toekomst wil IBM Watson ook laten leren van medische beeldinformatie zoals scans en hartfilmpjes, en van andere zintuiglijke informatie zoals geluid, reuk, smaak en tast.

Internet
IBM Watson
TED-lezing door Marc Teerlink over Watson als gezondheidsexpert
TED-lezing van Herbert Chase over Watson als gezondheidsexpert

Wednesday, July 17, 2013

Redeneren met de Franse slag

Deze boekrecensie is gepubliceerd in technologietijdschrift De Ingenieur van 12 juli 2013

Al decennialang gehoorzamen computers de wet van Moore. Deze komt er op neer dat ruwweg elke twee jaar het aantal rekenoperaties per seconde verdubbelt. Trek de wet van Moore door, en rond 2045 evenaart een thuiscomputer het menselijk brein. Bovendien kan tegen die tijd de software net zo adequaat nieuwe kennis en vaardigheden leren als het menselijk brein. Combineer deze hardware- en softwareontwikkelingen, en de computers en robots van 2045 lachen zich een breuk om die domme mensen die aan de wieg van hun elektronische voorouders hebben gestaan en die hun zelflerende software hebben geschreven.

Maar oeps, gaan die slimme machines ons dan als slaven gebruiken?

Om dat te voorkomen moeten we nu al nadenken over rechten en plichten voor robots. Dat betoogt auteur Henny van der Pluijm in zijn boek Rechten en plichten voor robots. Het boek herkauwt dezelfde argumenten die futurist Ray Kurzweil in het overigens veel beter geschreven boek The Singularity is Near (2005) gebruikt, en vult die aan met voorbeelden die de noodzaak van rechten en plichten voor intelligente machines moeten illustreren.

Een medicijn-halende robot wordt overvallen door hangjongeren. Een intelligente machine-adviseur wordt door de Raad van Bestuur van een multinational ingehuurd, maar legt genadeloos het disfunctioneren van diezelfde raad bloot. Altijd weer vermakelijk, zulke voorbeelden, maar ook te veel science-fiction. Al decennia horen we dat robots ons nu toch echt komen verlossen van al die vervelende rotklussen in huis, maar zelfs de stofzuigerrobot wacht nog steeds op een promotie van gadget tot massaproduct.

Dan de argumenten. Die komen met de Franse slag. Zelfs als de wet van Moore nog decennialang geldig blijft (wat nu al dubieus is), dan zegt dit weinig over wat een computer met die rekensnelheid doet. Menselijke intelligentie is zeker niet equivalent aan, of zelfs maar evenredig met, het aantal rekenoperaties per seconde. Er is geen wet van Moore voor software, noch een wet van Moore voor het begrip van ons brein.

De Franse slag wordt nog groter in het argument van het leervermogen van machines. Niemand weet nog hoe we machines een algemeen lerend vermogen kunnen geven vergelijkbaar met dat van het menselijk brein. Het moment van de waarheid in de informatica is een werkend computerprogramma en de rest is profetie. In theorie kan een robot volledig inburgeren in het menselijke leven, net zoals in theorie de wereldvrede morgen kan aanbreken.

In tegenstelling tot de beeldvorming in de massamedia, worden Ray Kurzweil en zijn Hollywood-gegoochel met de Wet van Moore onder wetenschappers in de kunstmatige intelligentie totaal niet serieus genomen. Zoals MIT-roboticus Nicholas Roy in 2011 in dit blad over Kurzweil zei: “Niemand heeft ooit iets zinvols over de toekomst gezegd, behalve dan om de verkoop van een boek omhoog te stuwen.” Jammer dat al die profetie over machines die mensen overvleugelen en rechten en plichten zouden moeten krijgen, de aandacht afleidt van de praktijk van vandaag en morgen: een samenwerking tussen menselijke en machine-intelligentie. Hoe combineren we het beste van beide typen intelligentie? Dat is de echt belangrijke vraag.

O ja, ik heb ’s werelds slimste chatbot, Ramona 4.1 van Ray Kurzweil, gevraagd of zij wil dat wij mensen haar rechten en plichten toekennen. Ramona antwoordde letterlijk: “Ik ben er niet zo zeker van dat ik zou willen te willen dat wij jou rechten en plichten toekennen.”

Boekinformatie:
Henny van der Pluijm: Rechten en plichten voor robots. PC Active. 251 blz. € 23,90
http://rechtenenplichtenvoorrobots.nl

Tuesday, June 4, 2013

"Begrip brein nodig voor intelligente machines"

MIT-hoogleraar Tomaso Poggio is een van de grondleggers van de computationele neurowetenschappen. Hij heeft zowel een diepgaande kennis van het brein als van de kunstmatige intelligentie. Gebaseerd op hoe het brein beelden waarneemt, heeft hij een computermodel gemaakt dat een dier op een plaatje net zo snel herkent als mensen dat kunnen. De computermodellen van Poggio liggen aan de basis van automatische visuele waarnemingssystemen die nu in auto’s worden ingebouwd. 

Dit artikel is gepubliceerd in technologietijdschrift De Ingenieur van 12 april 2013



Naam: Tomaso Poggio 
Leeftijd: 65
Titels: prof. dr.
Opleiding: Studeerde natuurkunde en promoveerde in 1971 in de theoretische natuurkunde aan de Universiteit van Genua (Italië). Van 1972 tot 1981 onderzocht hij het brein van de fruitvlieg bij het Max Planck Instituut voor Biologische Cybernetica in Tübingen (Duitsland).
Functie: Sinds 1981 werkt Poggio aan het Massachusetts Institute of Technology (MIT) in de VS. Hij is momenteel de Eugene McDermott Professor aan het Department of Brain and Cognitive Sciences van het McGovern Institute van MIT. Tevens is hij verbonden aan het Computer Science and Artificial Intelligence Lab (CSAIL) van MIT.



Ik vraag het Tomaso Poggio maar meteen: ‘Stel, de autonome auto van Google staat hier buiten voor de deur. Durft u, als iemand die zowel de sterke als de zwakke kanten van computervisie feilloos kent, in de auto te stappen en u te laten rondrijden?’

“O, absoluut”, antwoordt MIT-hoogleraar Poggio. “Ik zou me prima op mijn gemak voelen. In mijn eigen Audi zit trouwens al een radar-detectiesysteem. Ik stel de cruise control in op een bepaalde maximum snelheid en vervolgens auto houdt de auto een bepaalde afstand tot mijn voorligger. Het werkt zo goed, dat ik me geen zorgen meer maak. Soms vertrouw ik het systeem zelfs te veel. Het gebeurt wel eens dat een voorligger door het rood rijdt. Dan wil mijn auto ook door rood rijden. Hij herkent het rode licht niet, maar wil toch de afstand tot de voorligger gelijk houden. Gelukkig komen detectiesystemen die ook het rode licht herkennen er ook al aan.”

In de jaren negentig was Poggio een van de eersten die een computeralgoritme ontwikkelde dat voetgangers en andere straatobjecten in alledaagse beelden kon herkennen. Bij een snelheid van dertig beeldjes per seconde maakte het systeem eenmaal per seconde een fout. Voor een onderzoekssysteem in die tijd een grote prestatie. Maar voor praktische toepassing veel te slecht. Poggio: “Huidige computervisiesystemen maken in de orde-grootte van eens in vijftigduizend rij-uren een fout. Deze systemen kunnen levens redden. Geen wonder dat verzekeringsmaatschappijen inmiddels de premie beginnen te verlagen voor bestuurders die zo’n waarnemingssysteem in hun auto hebben.”

Poggio was ook een van de eersten die computervisie niet langer baseerde op volledig voorgeprogrammeerde regels, zoals decennialang tevergeefs is geprobeerd. Geïnspireerd door de werking van het menselijk brein bouwde hij een lerend systeem dat werd getraind met duizenden straatbeelden. Poggio: “De beste huidige computervisie gebruikt nog steeds dat basisidee, maar er zijn een heleboel lagen aan engineering bovenop gekomen. Bovendien bestaat de trainingsset tegenwoordig al snel uit miljoenen beelden.”

Poggio zelf is vooral geïnteresseerd in de fundamentele wetenschap die ten grondslag ligt aan lerende systemen. Zodra de toepassingen in zicht komen, dan laat hij het werk graag aan anderen over. Een van zijn voormalige post-docs, de Israëliër Amnon Shashua, heeft het bedrijf MobilEye opgericht. Dat bedrijf is inmiddels de belangrijkste leverancier van computervisiesoftware aan autofabrikanten als Audi, BMW en Toyota. Poggio: “De autonome auto van Google krijgt dan wel de meeste aandacht, maar praktisch gezien is een bedrijf als MobilEye veel belangrijker voor de implementatie van computervisie in auto’s.”

Einsteins genie
Als tiener was Tomaso Poggio, geboren en getogen in het Italiaanse Genua, gefascineerd door Einsteins relativiteitstheorie en door het genie van Einstein als persoon. “Dat je puur vanuit de theorie zulke diepe problemen als ruimte, tijd, massa en energie kon doorgronden, vond ik geweldig. Maar ik besefte dat er zoveel diepe problemen in de natuurkunde waren; veel te veel voor mij om ze op te lossen. Wat maakte Einstein zo intelligent? En wat nu als ik zelf intelligenter zou kunnen worden? Zo kwam ik op het idee dat als ik zou snappen wat intelligentie is, ik intelligentie misschien ook wel zou kunnen vergroten. Misschien zou ik dan een machine kunnen bouwen die mensen zou helpen intelligenter te worden zodat we al die moeilijke problemen zouden kunnen oplossen. Zo raakte ik geïnteresseerd in zowel de neurowetenschappen als in de computerwetenschappen.”

In de overlap van beide takken, de computationele neurowetenschappen, is Poggio een van ’s werelds meest geciteerde en gelauwerde wetenschappers. Hij is er van overtuigd dat de volgende stap in de ontwikkeling van kunstmatige intelligentie moet komen van een beter begrip van het menselijk brein. “Ja, we hebben nu Siri op de smartphone, we hebben Google Search, we hebben supercomputer Watson en we hebben computervisie zoals MobilEye. Dat zijn grote prestaties. Elk van deze systemen is net zo goed, of in het geval van Google Search zelfs veel beter, dan het menselijk brein. Maar wat nog steeds ontbreekt is een machine die intelligent is in de brede zin van het woord, in de zin van menselijke intelligentie. Een machine die in woorden kan vertellen wat er op een alledaagse beeld is te zien. Een machine die over het alledaagse leven kan praten. Kortom, een machine die zou slagen voor de Turing Test.”

Poggio verklaart die discrepantie uit het ontstaan van de kunstmatige intelligentie uit het werk van wiskundigen als Alan Turing en zijn voorgangers David Hilbert en Kurt Gödel. “Computers zijn ontstaan uit de logica en uit een poging om de wiskunde te formaliseren. Maar het type intelligentie dat deze wiskundigen probeerden te formaliseren, heeft niets te maken met het type intelligentie dat ons zenuwstelsel gebruikt. Computers zijn gebaseerd op een model van informatieverwerking waarin wij mensen helemaal niet goed zijn, zoals rekenen en logica. Computers zijn juist niet gebaseerd op het type intelligentie waarin wij mensen uitblinken: patroonherkenning op een associatieve manier, zoals we gebruiken bij visuele waarneming.”

Poggio vertelt een anekdote over Marvin Minsky, een van de grondleggers van de kunstmatige intelligentie: “Begin jaren zestig gaf Minsky het probleem van computervisie als zomerproject aan een van zijn studenten.” Hij laat even een stilte vallen en lacht dan hartelijk: “Een project voor een paar maanden!”

Wetenschappers zijn er er nu al meer dan een halve eeuw mee bezig. Omdat wij mensen zonder na te denken razendsnel de wereld om ons heen waarnemen, lijkt visuele waarneming zo’n simpel probleem. Maar het is niet voor niets dat zo’n dertig procent van de hersenschors in het menselijk brein wordt gebruikt voor visuele waarneming. De evolutie heeft haar handen vol gehad aan het vormgeven van efficiënte beeldverwerking. Daarom is visuele waarneming ook het modelsysteem dat Poggio gebruikt om uit te vinden wat intelligentie nu eigenlijk is. Als we begrijpen hoe ons visuele systeem waarneemt, dan begrijpen we volgens hem ook grotendeels welke hersenmechanismen ten grondslag liggen aan intelligentie.

Flitsherkenning
Op basis van onze kennis van de visuele waarneming door het menselijk brein, heeft Poggio een computermodel gebouwd dat net zo snel als mensen een dier op een plaatje herkent. Wanneer je een lange reeks foto’s snel achter elkaar aan menselijke proefpersonen laat zien, dan zijn ze bij elk beeld in staat om binnen vijftig tot honderd milliseconden te herkennen of er wel of niet een dier op staat. De plaatjes worden net lang genoeg getoond dat mensen zich bewust zijn van wat ze zien, maar kort genoeg om ze geen tijd te geven voor uitvoerige beeldinspectie. “Mensen voeren deze taak 80% correct uit. Ons model scoorde 82%. Dat was onverwacht goed. Wanneer mensen langer de tijd zouden krijgen, dan halen ze bijna 100%, maar omdat die bewuste beeldinspectie niet in ons model zat, hebben we ons gericht op het vergelijken van de snelle waarneming.”

Poggio’s model gebruikt een hiërarchie van waarnemingslagen. Op een basisniveau onderscheidt het model bijvoorbeeld randen van voorwerpen en de oriëntatie van lijnstukken. Hogere niveau’s onderscheiden vormen. De hoogste niveau’s onderscheiden bijvoorbeeld categorieën zoals dieren of voertuigen, en identiteiten zoals een kat of een auto.

Maar dan de stap van visuele waarneming naar intelligentie. Hoe hoopt Poggio daar een vinger achter te krijgen? “Cruciaal voor intelligentie”, zegt hij, “is de vaardigheid om te leren; om te generaliseren op basis van een klein aantal voorbeelden. Wanneer je vandaag een nieuw gezicht ziet, en je ziet het morgen opeens vanuit een heel andere hoek, in heel andere lichtomstandigheden, dan herken je het gezicht nog steeds. Het brein generaliseert met veel minder beelden dan computervisiesystemen nodig hebben.”

De afgelopen twee jaar heeft Poggio zich gestort op het ontwikkelen van een model dat een wiskundige beschrijving van een plaatje maakt, die onafhankelijk is van de toevallige omstandigheden waaronder de toeschouwer het beeld ziet. Deze wiskundige beschrijving blijft hetzelfde wanneer je het beeld een beetje draait, een beetje verplaatst of onder iets andere lichtcondities ziet. “Het laatste half jaar zijn daar hele mooie resultaten uitgerold. Het is een verrassend elegante wiskundige beschrijving. Het doet me weer denken aan de elegantie die je in de natuurkunde vindt. Fysici gaan uit van een bepaalde symmetrie of behoudswet en leiden daar bijvoorbeeld de wetten van de mechanica uit af. Onze theorie doet iets soortgelijks voor visuele waarneming. Uitgaande van enkele aannames kunnen we eigenschappen van hersencellen en netwerken van hersencellen afleiden. We kunnen voorspellingen doen over hoe het visuele systeem werkt en die voorspellingen zijn we nu aan het testen.”

Poggio wil nu de krachten bundelen om met een groot team van MIT-wetenschappers te ontrafelen wat intelligentie precies is en hoe het in machines gecreëerd kan worden. Hij heeft bij de Amerikaanse National Science Foundation (NSF) een voorstel ingediend voor het creëren van een nieuw MIT-instituut ‘Center for Brains, Minds and Machines’ dat al het MIT-onderzoek naar intelligentie − in de neurowetenschappen, de biologie, de kunstmatige intelligentie en in de psychologie − combineert. “Het gaat om een van de grootste NSF-subsidies. We hebben de laatste ronde gehaald en nog dit jaar horen we of we tot een van de winnaars behoren. Hoe dan ook, ik ben er van overtuigd dat het komende decennium een gouden tijd wordt voor intelligente machines, dankzij inzichten uit de neurowetenschappen.”

Internet
Website van Tomaso Poggio: http://bcs.mit.edu/people/poggio.html
Ter gelegenheid van het 150-jarig bestaan van MIT werd in 2011 het symposium ‘Brains, Minds and Machines’ georganiseerd. Dat symposium lag aan de grondslag van Poggio’s idee om al het MIT-onderzoek naar intelligentie te integreren: http://mit150.mit.edu/symposia/brains-minds-machines