Zomerblog: Wanneer filosofen AI’s leren programmeren
25.07.2022
Het was uiteraard niet zo dat ik helemaal niks over artificiële intelligentie wist toen ik een goed jaar geleden bij de Arteveldehogeschool ging praten over mijn mogelijke rol in een onderzoeksproject rond machine leren en het automatisch detecteren van betrokkenheid in teksten van medewerkers, maar laten we zeggen dat mijn enthousiasme mijn kennis vele malen oversteeg. Ik was al een aantal jaren actief in organisaties rond digitale communicatie, had daarbij vaak nauw samengewerkt met IT’ers en ik had er leesgroepen met andere filosofen (mijn oorspronkelijke achtergrond) opzitten rond het werk van AI-grootheden als Max Tegmark en Nick Bostrom.
Ik wist dus zeer goed wat anderen vonden van AI, maar zelf was ik nooit echt in de code gedoken en had ik dus nog niet aan den lijve ondervonden wat een AI kan (en vooral wat ze niet kan). Ik kan deze zomer terugblikken op een zeer interessant projectjaar, een hele steile leercurve in mijn beheersing van de programmeertaal Python, met zowel tal van hoogtepunten in mijn persoonlijke ontwikkeling naar meer kennis van hoe AI’s werken als met een aantal ervaringen die me vraagtekens hebben doen zetten bij de haast ongebreidelde AI-hype die er momenteel heerst. Mijn enthousiasme voor kunstmatige intelligentie blijft, maar ik ben wel zeer sceptisch geworden over uitspraken van futuristen die al jaren lopen te schreeuwen dat de singulariteit nu echt wel zeer nabij is.
Singularity, schmingularity
Een singulariteit is een concept uit de wiskunde en de natuurkunde. In de fysica beschrijft de term een punt in de ruimtetijd waarin natuurwetten niet meer werken. Een voorbeeld hiervan vinden we bij de beschrijvingen van zwarte gaten, waarbij er voorbij de event horizon een zodanig sterke zwaartekracht wordt uitgeoefend dat zelfs licht er niet meer kan aan ontsnappen, een onoverbrugbaar punt voor de observatie. Nog verder in het centrum van het zwarte gat is de zwaartekracht zo sterk dat er een oneindig klein samengedrukt punt ontstaat, een singulariteit. Fysici mogen me hier gretig tegenspreken over de details van deze beschrijving, maar het punt (pun intended) is dat de oorspronkelijke betekenis van dit woord is overgesprongen naar een meer algemene betekenis waarin er sprake is van een situatie waarin er een haast onnatuurlijke oneindigheid ontstaat. Als futuristen over de singulariteit spreken bedoelen ze daarmee meestal een punt in de toekomst waarin de technologische vooruitgang oneindig wordt.
Deze singulariteit zouden we kunnen bereiken door een artificiële intelligentie te creëren die zodanig slim is, veel slimmer dan mensen, dat ze niet alleen al onze problemen zou kunnen oplossen maar ons potentieel zou kunnen brengen naar een oneindige welvaart en een gouden tijdperk van de mens. Kanker wordt genezen, global warming is een belachelijk makkelijk op te lossen vraagstuk en de kosmos met al haar miljarden aan ontginningspotentieel ligt aan onze voeten. Dit is de positieve versie van het scenario, veel AI-wetenschappers vrezen ook dat zo’n AI ons naar een zeer snelle apocalyps zou kunnen leiden. De Amerikaanse informaticus Stuart Russell vergelijkt superintelligente AI zelfs met de atoombom in zijn recente bestseller Human Compatible. Nick Bostrom schreef een intussen klassiek geworden scenario over een AI die als enige doel heeft om paperclips te maken, een zogenaamde paperclip maximizer, en die dus ook uiteindelijk de hele mensheid uitroeit om meer grondstoffen, ruimte of energie te hebben om paperclips te maken. Het resultaat is dan een universum vol paperclips, maar zonder bewuste wezens om daarvan te profiteren (als dat sowieso al kan, ik heb paperclips altijd bijzonder overbodige dingen gevonden, bureaucraten mogen me hierover gretig tegenspreken).
De AI-gemeenschap is verdeeld over hoe snel deze singulariteit er zal komen, sommige specialisten denken binnen een aantal jaren, anderen binnen tientallen jaren en sommigen denken helemaal nooit (of slechts binnen honderden jaren). Ik ben na mijn onderzoeksjaar geneigd om akkoord te gaan met die laatste inschatting. Het boek The singularity is near van de bekendste profeet van de singulariteit Raymond Kurzweil dateert intussen al van 2005, maar de impact die AI momenteel op onze levens heeft is vooralsnog gelukkig veeleer beperkt, los van die vervelende en vaak totaal off the mark algoritmes die ons monitoren en van reclame voorzien op social media, en ik zie dat niet meteen veranderen. Het probleem (als het een probleem is dat we binnenkort niet allemaal in paperclips veranderd worden) is dat moderne AI’s zeer slim kunnen zijn in specifieke gebieden maar tegelijk ook zeer dom als ze ook maar een millimeter buiten hun domein van specialiteit gaan.
Zeer enge intelligentie
Mensen die niet met AI’s werken horen er meestal enkel over door sensationele headlines (en met wat geluk ook de artikels zelf) te lezen waarin machines dingen doen die ongelofelijk lijken, zoals het recente nieuws over chatbot LaMDA en de (intussen ontslagen) Google-ingenieur die geloofde dat de bot bewustzijn had verworven. Voor mensen die niks van AI’s weten behalve wat ze in het nieuws voorgeschoteld krijgen lijkt het vaak of artificiële intelligentie een soort van magie is, en dit wordt (helaas) gretig gevoed vanuit de industrie zelf. Ik zat onlangs nog in een panel met een ingenieur die bij een commerciële AI-organisatie werkte en die een aantal onverklaarbare activiteitspieken in een AI van een tech-gigant zag als een bewijs van zelfbewustwording. Zonder enig bewijs is dat een haast mystieke overtuiging. Het is waar dat AI’s nu zo complex geworden zijn dat één enkel individu meestal niet goed helemaal meer weet hoe ze werken en als een AI iets “fouts” doet kan het soms een hele tijd duren voor iemand de bug vindt, maar het is evengoed waar dat de achterliggende wiskunde van deze modellen eigenlijk vrij eenvoudig is en kan begrepen worden door elke master in de wiskunde (wiskundigen mogen me hier ook alweer gretig tegenspreken, met alle lof voor wie zijn eigen domheid wil bejubelen). Machine leren draait op een combinatie van calculus, vooral tensoren- en matrixwiskunde, en een grote brok statistiek. Wat artificiële intelligentie onderscheidt van meer traditioneel programmeren is dat het met deze simpele ingrediënten hypotheses kan testen en bijsturen, en dat wel honderden, duizenden keren, met een steeds kleinere foutmarge bij elke herhaling, waardoor de AI tot een steeds betere nabootsing komt van wat mensen kunnen produceren. En het is waar: soms is het resultaat dat daaruit komt ongelofelijk, beter dan wat mensen maken.
Er zijn bijvoorbeeld computermodellen die aan de lopende band klassieke muziek kunnen uitbraken die de complexiteit van het werk van Bach overstijgen. Wat mij dit jaar vooral beklijfde was echter niet hoe slim deze kunstmatige intelligenties zijn, maar eerder hoe eng en dom ze zijn. Neem bijvoorbeeld BERT, het AI-model dat ik voor ons project gebruikte om teksten te classificeren op graad van betrokkenheid. Dit model wordt doorgaans getraind met data van Wikipedia, men voedt het met honderdduizenden teksten, waarna de AI een zeker inzicht heeft in de syntax en woordenschat van natuurlijke talen. Als je na deze basistraining een simpele classificatietaak zoals sentiment-analyse op een tekst loslaat moet je al snel opmerken dat het model niet in staat is om positieve van negatieve filmreviews te onderscheiden. Aangezien Wikipedia-pagina’s meestal niet het format van een recensie volgen heeft het model dan een bijkomende training, een finetuning, nodig met heel, heel veel filmrecensies. Eens je het model dan bijgesteld hebt door de IMDB-database in te voeren is het perfect in staat om deze taak uit te voeren. Laat het na deze finetuning echter geen sociale mediaberichten beoordelen, want het resultaat zal weer abominabel zijn.
Met een uitbreiding op een iets ouder spreekwoord: voor een hamer is alles een spijker, en als je iemand leert dat hij een hamer is moet je hem daarna niet vragen om de woonkamer te kuisen. De enge intelligentie van een AI past enkel toe wat ze geleerd heeft, maar voor een brede intelligentie (wat men een AGI, een artificial generalized intelligence, noemt) die uiteindelijk tot een singulariteit zou kunnen leiden heeft het een soort van algemeen model van de wereld nodig en dit zie ik voorlopig nergens in de nabije toekomst opduiken.
Wat AI wel kan
Het is uiteraard bewonderenswaardig dat er nu computers zijn die elke mens kunnen verslaan in een zeer complex bordspel als Go. Om onze verwondering nog te vergroten kunnen we daarbij ook vermelden dat AlphaGo, de AI die in 2017 alle menselijke Go-kampioenen versloeg, in het begin van haar leerproces niks over het spel wist behalve de basisregels. Men heeft de machine simpelweg losgelaten op een speelbord waarna het tegen zichzelf speelde tot ze het spel perfect beheerste. Door de erg grote combinatorische diversiteit van Go is de machine zelf laten leren een goede strategie, maar bij eenvoudigere spelen loont het nog steeds meer om gewoon alle mogelijke combinaties en resultaten te programmeren en de machine te laten kiezen welke optie op welk moment het beste is. De schaakcomputer Deep Blue die in 1996 voor het eerst wereldkampioen Garry Kasparov versloeg was bijvoorbeeld geen AI (zo gaf ook producent IBM toe) maar kon gewoon heel snel heel veel schaakposities bekijken en daaruit de beste kiezen, iets wat geen mens zo snel kan, maar uiteindelijk ook niks meer inhoudt dan een bliksemsnel vergelijken van lijsten met de huidige positie op het schaakbord.
Door de hype die AI is spreken bedrijven vaak over kunstmatige intelligentie terwijl het eigenlijk gaat over programma’s met klassieke lijsten die gematcht worden aan een bepaalde input van een gebruiker en waarbij er geen intelligentie komt kijken. Ik zou hier nog veel verder kunnen gaan in het geven van voorbeelden hoe de kans dat AI binnenkort voor een maatschappelijke revolutie zal zorgen vrij klein is, zoals het feit dat AI-onderzoekers het brein van een worm (302 neuronen) en een fruitvlieg (100.000 neuronen) en met minder succes dat van een muis (70 miljoen neuronen) gesimuleerd hebben neurale AI-netwerken maar dat we nog heel ver staan van het simuleren van een menselijk brein met zijn 86 miljard neuronen, maar uiteraard zou ik me niet zo op het onderwerp geworpen hebben als ik niet geloof dat er ook heel veel is dat AI wel kan. Op bepaalde gebieden kan de vrij enge kracht van een AI wel een enorme impact hebben: automatische gezichtsherkenning is daar een duidelijk voorbeeld van. Merken we eerst op dat de Chinese overheid in 2018 nog graag iedereen wou doen geloven dat gezichtsherkenning al volledig geautomatiseerd was terwijl dat niet zo was, gezichten werden toen nog vrij vaak met de hand gematcht aan foto’s uit databases. Vrij recente, snelle evoluties in de technologie hebben er echter voor gezorgd dat men nu echt op het punt beland is dat men gezichten in de massa kan herkenning met autonoom lerende programma’s, wat in een ondemocratisch land als China vaak tot dramatische gevolgen leidt.
Mijn takeaway voor communicatieprofessionals die willen weten hoe het staat met het nut van AI voor organisaties: als het gaat om simpele taken die makkelijk geautomatiseerd kunnen worden, die eenduidig en niet verwarrend zijn en waarbij er een zekere complexiteit van combinaties is, kan machine leren zeer krachtig zijn en een goede optie zijn, maar voor de meeste toepassingen zitten we toch nog volop in de ontdekkingsfase. In mijn eigen onderzoeksgebied, natural language processing, kunnen er fantastische, creatieve zaken gedaan worden met tekstgeneratie en -analyse, chatbots en het automatisch classificeren van (eenvoudige) emoties.
Organisaties moeten echter altijd goed nadenken wat ze precies willen, en als een taak makkelijk door mensen of met klassiek programmeren gedaan kan worden, moeten ze zich door futuristen en tech-baronnen niet laten voorspiegelen dat het een must is om meteen op de AI-trein te springen. De AI-trein is vooralsnog een trage locomotief die vaak ontspoort en niet de blitse hypersnelle bolide die we graag willen dat ze is. Onderzoekers overal ter wereld blijven timmeren aan het pad en we kunnen verwachten dat kunstmatige intelligenties die zich op specifieke nauw gedefinieerde taken richten snel heel slim zullen worden. Eens dat zo is dan is het ook nog eens afwachten tot de technologieën betaalbaar genoeg zijn zodat kleinere organisaties ze ook kunnen gebruiken, en hoe snel dat kan is een vraagstuk dat zo complex is dat alleen een superintelligente entiteit er het antwoord op weet. AI zal in ons professionele leven dus steeds meer impact hebben, maar van een singulariteit en een maatschappij van oneindige kennis zijn we nog even verwijderd, als ze er ooit al komt.
Auteur
Frank D'hanis
Onderzoeker Expertisenetwerk Communicatie Media en Design van de Arteveldehogeschool (domeinen AI, taal en communicatie) en filosoof.
Het Kenniscentrum is niet verantwoordelijk voor de inhoud van de blogposts die verschijnen in onze 'Zomer'-serie en zullen dan ook niet over de inhoud corresponderen. Bij vragen, opmerkingen of bedenkingen: contacteer de auteur(s)!
Lees onze volledige disclaimer hier.
Afbeeldingen: