Kunstmatige intelligentie (AI) is een van de meest populaire en veelbelovende technologieën van onze tijd. Maar niet alle soorten AI zijn even indrukwekkend of betrouwbaar. Een specifieke vorm van AI, die generatieve AI wordt genoemd, krijgt veel aandacht en waardering, maar ook veel kritiek en scepsis. Generatieve AI is de technologie die inhoud kan creëren, zoals teksten, beelden of code, door middel van geavanceerde algoritmen die leren van grote hoeveelheden data. Maar hoe goed is generatieve AI eigenlijk? Wat zijn de voordelen en de nadelen ervan? En wat zijn de mogelijke gevolgen voor de economie, de politiek en de samenleving?
In dit artikel onderzoekt Gary Marcus, een vooraanstaand expert op het gebied van kunstmatige intelligentie, deze vragen. Hij betoogt dat generatieve AI niet gelijk staat aan algemene kunstmatige intelligentie (AGI), die zo slim en vindingrijk is als mensen of meer. Hij wijst op de vele onopgeloste problemen en beperkingen van generatieve AI, zoals de neiging om valse informatie te hallucineren, het onvermogen om betrouwbaar te koppelen met externe tools, en de instabiliteit van maand tot maand. Hij waarschuwt dat we onze hele mondiale en nationale beleid niet moeten baseren op de premisse dat generatieve AI wereldveranderend zal zijn op manieren die achteraf gezien onrealistisch kunnen blijken te zijn. Hij pleit voor een meer nuchtere en kritische benadering van generatieve AI, en hoopt dat we tot een bloeiende wereld kunnen komen met AI die we kunnen vertrouwen.
De hype rond generatieve AI
Generatieve AI is een verzamelnaam voor technologieën die inhoud kunnen genereren op basis van data en algoritmen. Een bekend voorbeeld is ChatGPT, een systeem dat natuurlijke taal kan produceren door middel van deep learning. ChatGPT kan teksten schrijven over elk onderwerp, variërend van nieuwsartikelen tot gedichten tot fictie.
De hype rond generatieve AI is enorm. Veel bedrijven die zich bezighouden met generatieve AI hebben miljarden waarderingen gekregen, zoals OpenAI, dat $29 miljard waard is. De media besteden voortdurend aandacht aan de prestaties en mogelijkheden van generatieve AI. Veel mensen geloven dat generatieve AI de toekomst is van creativiteit, communicatie en innovatie.
Maar klopt deze hype wel? Is generatieve AI echt zo geweldig als het wordt voorgesteld? Of zijn er verborgen gebreken en gevaren die we over het hoofd zien?
De problemen met generatieve AI
Generatieve AI heeft veel problemen die nog niet zijn opgelost. Een daarvan is het hallucinatieprobleem: het vermogen om valse of misleidende informatie te produceren die niet overeenkomt met de werkelijkheid. Dit kan leiden tot ernstige gevolgen voor de gebruikers die vertrouwen op generatieve AI voor hun doeleinden.
Een voorbeeld hiervan is het gebruik van ChatGPT voor academisch of juridisch onderzoek. ChatGPT kan teksten schrijven die er plausibel uitzien, maar die geen feitelijke basis hebben of zelfs in strijd zijn met de waarheid. Dit kan leiden tot foutieve conclusies, slechte beslissingen of zelfs juridische problemen.
Een ander probleem met generatieve AI is het koppelingsprobleem: het onvermogen om betrouwbaar te koppelen met externe tools die extra informatie of functionaliteit kunnen bieden. Dit beperkt de reikwijdte en de bruikbaarheid van generatieve AI voor complexe taken.
Een voorbeeld hiervan is het gebruik van ChatGPT voor zoekopdrachten. ChatGPT kan teksten schrijven die antwoord geven op eenvoudige vragen, maar die geen toegang hebben tot externe bronnen zoals Wolfram Alpha, die meer geavanceerde berekeningen of analyses kunnen uitvoeren. Dit kan leiden tot onvolledige of onnauwkeurige antwoorden, die de gebruikers niet verder helpen.
Een derde probleem met generatieve AI is het stabiliteitsprobleem: de instabiliteit van maand tot maand, waardoor de prestaties en het gedrag van generatieve AI kunnen veranderen zonder waarschuwing of verklaring. Dit maakt het moeilijk om generatieve AI te integreren in grotere systemen die consistentie en betrouwbaarheid vereisen.
Een voorbeeld hiervan is het gebruik van ChatGPT voor marketing of entertainment. ChatGPT kan teksten schrijven die aantrekkelijk of grappig zijn, maar die ook kunnen veranderen door updates of aanpassingen in het algoritme. Dit kan leiden tot ongewenste of ongepaste inhoud, die de reputatie of de klanttevredenheid kan schaden.
De gevolgen van generatieve AI
Generatieve AI heeft niet alleen technische problemen, maar ook economische en geopolitieke gevolgen. Generatieve AI wordt gezien als een strategische troef in de mondiale concurrentie tussen landen, vooral tussen de VS en China. Beide landen willen de leiding nemen op het gebied van generatieve AI, en nemen maatregelen om hun belangen te beschermen of te bevorderen.
De VS heeft bijvoorbeeld de toegang tot hoogwaardige hardwarechips die essentieel zijn voor generatieve AI beperkt, en de investeringen in China beperkt. China heeft daarentegen zijn ambitie om de wereldleider te worden op het gebied van generatieve AI niet verborgen gehouden, en heeft zwaar geïnvesteerd in onderzoek en ontwikkeling. Dit heeft geleid tot een verhoogde spanning en een mogelijke “AI-oorlog” tussen de twee grootmachten.
Maar wat als generatieve AI niet zo belangrijk of invloedrijk is als we denken? Wat als generatieve AI een flop blijkt te zijn, die niet voldoet aan de verwachtingen of de beloften? Wat als we ons druk maken over iets dat misschien nooit zal gebeuren?
Dat is de vraag die Marcus stelt in zijn artikel. Hij betoogt dat we misschien veel risico’s nemen of kansen missen door ons te richten op generatieve AI, terwijl we andere aspecten van kunstmatige intelligentie negeren. Hij stelt dat we misschien een oorlog in Taiwan kunnen krijgen over een luchtspiegeling, of dat we misschien geen consumentenbescherming krijgen die we nodig hebben, omdat we iets proberen te bevorderen dat misschien niet zo groeit als verwacht.
De toekomst van generatieve AI
Marcus pleit voor een meer nuchtere en kritische benadering van generatieve AI. Hij zegt dat we geen concrete reden hebben om te denken dat de problemen van generatieve AI binnenkort zullen worden opgelost. Hij zegt dat we niet moeten geloven dat AGI nabij is, alleen omdat sommige techleiders dat beweren. Hij zegt dat we niet moeten vertrouwen op technologie die gebaseerd is op automatisch aanvullen, niet op feitelijkheid.
Marcus concludeert dat hij nog steeds wanhopig hoopt dat we tot een bloeiende wereld kunnen komen met AI die we kunnen vertrouwen. Hij zegt dat hij daarvoor onlangs het Center for the Advancement of Trustworthy AI heeft opgericht, en in 2019 een boek heeft geschreven met Ernest Davis over hoe we daar kunnen komen. Hij zegt dat hij nog steeds graag zou zien dat generatieve AI zijn belofte waarmaakt, maar dat hij er niet blindelings op rekent.
Generatieve AI is een fascinerend en veelbelovend veld, maar het is ook een veld vol uitdagingen en onzekerheden. We moeten niet te snel of te gemakkelijk meegaan met de hype, maar ook niet de mogelijkheden negeren. We moeten kritisch en voorzichtig zijn, maar ook nieuwsgierig en creatief. We moeten generatieve AI niet zien als een doel op zich, maar als een middel om een betere wereld te bouwen met AI die we kunnen vertrouwen. Dit is de boodschap die Gary Marcus ons wil overbrengen in zijn artikel. Hij nodigt ons uit om kritisch en voorzichtig te zijn, maar ook nieuwsgierig en creatief. Hij hoopt dat we generatieve AI kunnen gebruiken om onze problemen op te lossen, onze kennis te vergroten en onze verbeelding te stimuleren. Maar hij waarschuwt ons ook voor de valkuilen en risico’s van generatieve AI, en de noodzaak om het te reguleren en te controleren. Hij vraagt ons om niet te geloven in de hype, maar ook niet de hoop te verliezen. Hij vraagt ons om generatieve AI te zien als een uitdaging, niet als een revolutie.
Volgens Bright kan de aandelenkoers van bedrijven als chipmaker Nvidia, dat momenteel profiteert van de AI-golf, zou in dat geval in elkaar kunnen storten.