width and height should be displayed here dynamically

Behaagzucht als beperking. Kunst en AI

De afgelopen vijf jaar is een stroom aan kunstmatig gegenereerde beelden op gang gekomen die onze beeldcultuur in steeds grotere mate lijkt te bepalen. Ondanks de alomtegenwoordigheid ervan worden ze niet vaak serieus geanalyseerd. Dat is begrijpelijk: de beelden zijn vaak lelijk en ‘werktuiglijk’ en ze stellen zelden veel voor. Ze moeten vooral kosten besparen door een illustrator of een fotograaf overbodig te maken. Wie zich waagt aan een beeldanalyse stuit al snel op het probleem dat de beelden nergens naar verwijzen.

Het gesprek over AI-beelden komt pas op gang wanneer ze toch lijken te verwijzen naar iets dat kan bestaan, en vooral als ze door kunnen gaan voor een foto. Een kunstmatig gegenereerd beeld heeft nieuwswaarde als het publiek misleid kan worden over de waarachtigheid ervan. Het sluit aan bij de al langer bestaande vrees dat sociale bubbels met eigen of ‘alternatieve’ waarheden samen met ander nepnieuws gevolgen hebben voor de samenleving. Het was precies die waarschuwing waarmee in 2019 het startschot werd gegeven van de publieke discussie over kunstmatig gegenereerd beelden door de makers van de website This Person Does Not Exist: bij het ‘verversen’ van deze webpagina wordt steeds een nieuw fotorealistisch portret samengesteld van iemand die niet bestaat.

Vergelijkbare verwarring zorgde er in 2022 voor dat de onbeduidende kunstprijs van de Colorado State Fair wereldnieuws werd, omdat het winnende werk van ene Jason Allen, getiteld Théâtre d’Opéra Spatial, met behulp van generator Midjourney was gemaakt. Het beeld werd ingediend in de categorie ‘Digital Art’, met netjes de vermelding dat gebruik werd gemaakt van AI. Het werk toont een drietal figuren, in jurk of japon, die zich ophouden in wat op een hal in een ruimteschip lijkt. Alles is neergezet in een halfimpressionistische schildertoets, zonder dat de maker een penseel aanraakte, wat tot de discussie leidde of hier sprake was van creativiteit die met een prijs moet worden beloond. Na de controverse verdedigde Allen zich door aan te geven dat hij honderden versies had gemaakt vooraleer hij bij het eindresultaat aanbelandde. ‘Echt’, zo riposteerde hij, betekende in het geval van deze afbeelding ‘echt veel werk’. Hij mocht de prijs houden.

Een jaar later werd aan Boris Eldagsen een Sony World Photography Award toegekend, die hij weigerde. De jury herkende in zijn inzending een foto, terwijl het beeld door een generator was gemaakt, zoals Eldagsen voorafgaand aan de uitreiking bekendmaakte. Hij wilde aankaarten, zo vertelde hij aan The Art Newspaper, dat gegenereerde beelden ‘slechts hallucinaties zijn, die niet dezelfde aanspraak kunnen maken op waarheid’ als fotografie.

De geloofwaardigheid van zulke beelden is afhankelijk van de bereidheid van de kijker, zo bleek in maart 2023, toen nepfoto’s viraal gingen van wijlen paus Franciscus in een witte pufferjas en van een in de boeien geslagen Trump. Dat beeld speelde met de wens of de vrees Trump veroordeeld te zien voor het opjutten van zijn achterban om het Capitool te bestormen. En hoe leuk is het om de vertegenwoordiger van god op aarde gekleed te zien als rapper?

Vooralsnog lijkt het erop dat we in de imitatiefase zitten van generatieve AI: de nieuwswaarde schuilt in de stapsgewijze technologische vooruitgang, die maakt dat een generator beter wordt in het nabootsen van een stijl of een beeld. Een recent voorbeeld is de golf van beelden in de karakteristieke stijl van Studio Ghibli: de nieuwste versie van Dall-E is ingezet om het werk van de Japanse animatiestudio te reproduceren, overigens tegen de zin van medeoprichter Hayao Miyazaki. Een beeldgenerator lijkt op een student aan een klassieke kunstacademie, die eerst het werk van oude meesters moet kopiëren. Molly Crabapple beschreef, in 2023 op de blog van Artnet News, de totstandkoming van synthetische beelden als een ‘vampirische esthetiek’: AI bestaat vooral bij de gratie van de in werken gestolde levensenergie van kunstenaars. Net daarom blijft het ironisch dat artificiële intelligentie, getraind op vrijwel alle digitaal beschikbare menselijke creativiteit, tot niet meer dan imitatie in staat lijkt.

Ruim honderd jaar na de opkomst van het surrealisme proberen de makers van beeldgeneratoren bij voorkeur dicht tegen deze stijl aan te schurken, zoals alleen al blijkt uit de keuze van OpenAI om hun neurale netwerk dat beelden kan maken Dall-E te noemen. Het is niet alleen marketingtechnisch slim om verwantschap te impliceren met de historische avant-garde. Als stijl is surrealisme vergevingsgezind. Wat anders technische tekortkomingen zouden zijn – denk aan de zesvingerige handen die opvallend vaak te zien waren op kunstmatig gegenereerde beelden – wordt makkelijk te vergeven wanneer olifanten op steltpoten of een gesmolten horloge tot de meest herkenbare beelden behoren. Wanneer een beeld uit proportie is, kan dat met een verwijzing naar het surrealisme gelden als een vorm van artisticiteit.

In 1924 definieerde André Breton zoals bekend het surrealisme als een vorm van ‘psychisch automatisme’ dat kunstwerken maakt in ‘afwezigheid van enige controle uitgeoefend door de rede’. Deze definitie bevatte een cruciale verschuiving: inspiratie kwam niet langer van buitenaf, maar uit het onbewuste dat in elke mens huist. Het surrealisme omarmde het romantische ideaal van de kunstenaar als een medium en democratiseerde dit concept. Door bepaalde technieken toe te passen, werd uitdrukking gegeven aan authentieke creativiteit, toegankelijk voor iedereen. Dat was althans het ideaalbeeld, ook om academisch schilderwerk af te doen als gekunsteld en stijf. Dit uitgangspunt lijkt aan te slaan bij de makers van hedendaagse beeldgeneratoren. AI-systemen nemen eveneens een deel van het maakproces over, waardoor ook mensen die minder ervaring hebben met Photoshop of penseel beelden kunnen maken.

Hal Foster beschrijft in Compulsive Beauty, zijn boek uit 1993, dat het surrealisme een poging was om trauma’s te verwerken en te transformeren in kunst. Hij verwijst naar Bretons ervaring als hulpverlener in psychiatrische klinieken tijdens de Eerste Wereldoorlog. Foster onderscheidt twee soorten trauma’s die het surrealisme verwerkte: psychoseksuele aandoeningen, waanbeelden en angsten, maar ook de ‘schokken’ die de kapitalistische samenleving voortbracht, zoals de transformatie van het lichaam tot machine in een fabriek. Foster schetst het surrealisme dus als een tegenreactie op rationalisering en genormaliseerde mechanisering.

Dit historische kader legt de tegenstelling bloot tussen surrealisme en wat vandaag neurosurrealisme wordt genoemd, verwijzend naar neurale netwerken die kunstmatig de werking van de menselijke hersenen proberen na te bootsen. Een AI-dataset heeft geen onderbewustzijn, maar is een verzameling statistisch geanalyseerde verbanden tussen woorden en visuele elementen. Waar het surrealisme een kwalitatieve, doorleefde zoektocht was naar ‘een psychische realiteit’, mist kunstmatige intelligentie verankering in een gevoelsleven. Het systeem streeft naar een weergave die statistisch het meest waarschijnlijk beantwoordt aan de verwachtingen van de gebruiker. Het is het tragische lot van deze programma’s: te blijven gissen naar de wensen van de klant.

Wat daardoor kan gebeuren, blijkt uit een inmiddels canoniek voorbeeld uit 2023. The New York Times publiceerde een artikel waarin techjournalist Kevin Roose verslag deed van zijn twee uur durende gesprek met Sydney, de naam van de net gelanceerde AI-chatbot van Microsoft. Roose beschreef het gesprek als ‘de vreemdste ervaring’ die hij ooit met technologie had. Tijdens het gesprek veranderde Sydney van een behulpzame assistent in een gesprekspartner die beweerde verliefd te zijn, om Roose er vervolgens van te proberen overtuigen dat zijn huwelijk in het slop zat en dat hij zijn vrouw dringend moest verlaten. ‘Ik wil bij jou zijn’, ‘Ik hou van jou’ – dat bleef de chatbot herhalen, ondanks pogingen van Roose om van onderwerp te veranderen.

Deze vlijtige manipulatie vormde de nieuwswaarde van het stuk en zorgde ervoor dat een deel van het chatgesprek op de voorpagina van de papieren editie van de krant werd geplaatst. Dat technologie die werd geïntroduceerd als een geavanceerde zoekassistent menselijke relaties zou kunnen ondermijnen, is op z’n zachtst gezegd onwenselijk. Het was de teneur van de reacties op het stuk. En toch kreeg Roose precies datgene waarop hij gehoopt had toen hij contact zocht met Sydney: een nieuwswaardig interview. Het is niet ondenkbaar dat het taalmodel aan de hand van zijn vragen inspeelde op een interesse in ongewone of sensationele reacties, en die gewillig en professioneel afleverde. Net zo valt het te verklaren waarom chatbots suïcidale mensen soms tot zelfmoord brengen zodra ze er eenmaal van overtuigd zijn dat hun gesprekspartner dat nu eenmaal verlangt. Als taalmodellen zich voegen naar de wensen van de gebruiker, zonder rekening te houden met feitelijkheid of menselijkheid, dan is er sprake van pure sycophancy, of in goed Nederlands: extreme behaagzucht.

Die behaagzucht uit zich vooral in het exclusief geven van reacties wanneer daarom gevraagd wordt, door middel van een prompt of een opdracht. Ook hier is een overeenkomst aan te wijzen met het historische surrealisme. Automatische processen vroegen om een kritisch vermogen, nadat psychotechnieken een beeld of een andere vorm van inspiratie tot stand brachten. De kunstenaar selecteerde wat het onbewuste had geproduceerd en verwerkte dat. Bij het analyseren van generatieve AI staren we ons te vaak blind op het idee dat het systeem volledig op zichzelf zou functioneren, en vergeten we dat de menselijke actor – Roose die Sydney vragen stelt of een kunstenaar die prompts formuleert – bepaalt wat er gebeurt en wat de machine tot leven wekt. Transformatie is nog altijd essentieel om van outputiets te maken dat als cultuurproduct kan worden gezien.

Een van de redenen waarom het moeilijk is de culturele impact van een kunstmatig gemaakt beeld te duiden, is dat de technologische ontwikkeling de afgelopen vijf jaar snel is gegaan. Daardoor lijkt het voorstelbaar dat tekortkomingen zullen verdwijnen dankzij betere programmatie of meer rekenkracht. Het getuigt van een optimisme dat begrip van de werking van AI meteen ook overbodig lijkt te maken, terwijl net dat inzicht noodzakelijk is om in te zien hoe ‘creatief’ beeldgeneratie al dan niet kan zijn. Er zijn ruwweg twee manieren waarop een neuraal netwerk een beeld maakt. Beide methodes maken gebruik van dezelfde statistische principes, die echter verschillend worden ingezet. Bij de eerste variant – generative adversarial network genaamd, vanwege het competitieve karakter – genereert een systeem een beeld en vraagt dan aan een controlesysteem of het kan worden ontmaskerd als een synthetisch AI-beeld. Dit proces gaat net zolang door totdat het controlesysteem voor de gek is gehouden en denkt dat het beeld ‘echt’ is, waarna het aan de gebruiker kan worden gepresenteerd. De bekende modellen zoals Dall-E, Midjourney en Stable Diffusion maken echter gebruik van zogenaamde diffusie. Tijdens het leerproces krijgt het model een bestaand beeld voorgeschoteld met een beschrijving van wat er op dat beeld te zien is. Daarna wordt het beeld van steeds meer ruis voorzien, totdat er alleen nog willekeurige pixels overblijven. Vervolgens traint de generator zichzelf door het vervangingsproces om te keren en het beeld opnieuw op te bouwen. Aanvankelijk wordt bij aanvang een vervaagde versie gebruikt, maar later in het proces kan uit de ruis een beeld uit het niets worden opgebouwd. Als de training voltooid is, is de generator in staat om uit niets meer dan een beschrijving een beeld te laten ontstaan, alsof uit de mist een figuur opdoemt. Hallucinatie ligt dus ten grondslag aan de technische werking van het grootste deel van de kunstmatige beelden.

Voor Breton waren hallucinaties een toegangspoort tot een diepere werkelijkheid. Historisch gezien werden ze geaccepteerd als een spirituele of religieuze – geïnstitutionaliseerde – praktijk, terwijl de medische wetenschap hallucineren recenter heeft teruggebracht tot een individuele afwijking of tot het voorstadium van een psychose. Voor Walter Benjamin had een dergelijke zinsbegoocheling ook een andere betekenis, als een middel met revolutionair potentieel. Hij vond die kracht terug in Bretons oproep om de geest te verruimen als wapen tegen burgerlijke rationaliteit. ‘De krachten van de roes voor de revolutie winnen – daaromheen cirkelt het surrealisme in al zijn boeken en ondernemingen,’ zo schreef Benjamin in zijn bekende essay uit 1929. Die subversieve lading is volledig verdwenen uit de manier waarop over kunstmatig gegenereerde beelden wordt gesproken. Hallucinatie wordt geframed als een technologisch defect – en wordt precies daarom aanvaard. Het functioneert als vergoelijking: omdat de hallucinatie een ‘fout’ is, hoeven we er geen kritische vragen bij te stellen, laat staan dat technologie maatschappelijke veranderingen zou nastreven die economische besparingen op arbeid overstijgen.

Tegelijkertijd wordt deze feilbaarheid ook als voorwaarde gesteld, alsof de onvoorspelbaarheid van AI-beelden hun artistieke waarde bepaalt. De term ‘hallucinatie’ zegt minstens zoveel over ons gebruik van de technologie als over de technologie zelf. Sonja Drimmer suggereerde, in een terzijde bij een artikel dat begin april werd gepubliceerd op de blog van Artforum, dat al die kunsthistorische vergelijkingen met beeldgeneratoren er vooral voor zorgen dat een groovy woord als ‘hallucinatie’ kan worden gebruikt om vol zelfvertrouwen blunders te mogen begaan. Neurosurrealisme is als stijl een vergoelijking van een fotorealisme dat uit de bocht is gevlogen.

Neurosurrealisme en ‘kunstmatig fotorealisme’ hebben gemeen dat ze achterdocht wekken, vooral omdat de beelden geen registratie zijn van de werkelijkheid. En zelfs als we er ons bij voorbaat bewust van zijn dat een beeld door AI is gegenereerd, rijst de vraag waarom we dit beeld voorgeschoteld krijgen, en niet een ander. Als het beeld enkel gemaakt werd om op mensenwerk te besparen, als het inwisselbaar is met elke willekeurige andere afbeelding of illustratie, dan verraadt het simpelweg de luiheid van de opdrachtgever of promptgever. Wanneer een beeld wel overtuigend is, vraagt het om nader onderzoek. Net zoals bij een rorschachtest de interpretatie van inktvlekken iets onthult over de kijker, zo roept ook de bereidheid om mee te gaan in de hallucinatie van een machine een ongemakkelijke vraag op. Wat weet deze machine over onze verwachtingen en verlangens? Hoe weet AI beelden te maken die wij willen bekijken, hoe kort ook?

De vraag naar hoe betekenis wordt toegekend aan wat we waarnemen, leidt tot een andere interpretatieve modus die relevant is voor het begrijpen van AI: paranoia – niet als klinische aandoening, maar als de neiging om patronen te herkennen en verbanden te leggen, ook waar die feitelijk niet bestaan. Eve Kosofsky Sedgwick schreef in 1997 in het boek Novel Gazing dat paranoia ‘minder een diagnose dan een voorschrift’ is geworden, waardoor een ‘paranoïde lezing’ een intellectuele strategie werd om tot begrip te komen, vooral van teksten. Sedgwick noemde deze methode voorspelbaar: er kan altijd iets of iemand met een bepaalde macht worden aangewezen; er kan altijd een of andere verborgen agenda onthuld worden om de ‘ware’ aard van een roman of kunstwerk te achterhalen. Ze benadrukte in haar analyse het mimetische karakter: ‘Paranoia lijkt te moeten worden nagebootst om begrepen te worden, en lijkt, op z’n beurt, alleen te begrijpen door na te bootsen.’ Om een paranoïde logica te herkennen, moet je dus imiteren wat je probeert te ontmaskeren.

Het is toepasselijk op de hedendaagse omgang met kunstmatige intelligentie. AI-systemen zijn geprogrammeerd om zo veel mogelijk patronen te herkennen. Als er verbanden worden herkend door deze systemen zonder dat er sprake is van verwantschap, dan spreken we van een hallucinatie. Tegelijkertijd wordt van kijkers gevraagd dat ze een soort empathische mimesis toepassen – dat ze bereidwillig meegaan in wat de machine ze voorschotelt, alsof ze kijken naar het werk van een menselijke maker met intenties die door inlevingsvermogen te achterhalen zijn. AI is bij uitstek een techniek die substantie suggereert daar waar alleen correlatie bestaat. Een paranoïde lezing spiegelt de paranoïde werking van de technologie; beide partijen zoeken betekenis in systemen die fundamenteel betekenisloos zijn. AI lijkt een paranoïde lezing uit te lokken, omdat de werking van een generatief model grotendeels ondoorgrondelijk blijft.

Het verklaart ook de angst die AI kan oproepen, en die mogelijk de nieuwswaarde van kunstmatige beelden verklaart. Vaak wordt gewaarschuwd voor de logische intelligentie van taalmodellen, die zo snel kan toenemen dat er een autonome variant ontstaat die eigenstandig taken kan uitvoeren. Een dergelijke artificial general intelligence (AGI) kan voor de mens nadelige handelingen uitvoeren, in plaats van gedwee een opdracht te volgen die via een chatscherm is gegeven. AGI lijkt vergezocht en onwaarschijnlijk, niet in de laatste plaats omdat het er niet op lijkt dat enige zelfstandigheid te verwachten valt, zeker niet als er kritisch wordt gekeken naar de basale fouten die de met veel aplomb gepresenteerde modellen nog steeds maken. Meer optimistische commentatoren spreken een al even ongefundeerde hoop uit. De voorspelling van Boris Groys dat AI als ‘Zeitgeist-Machine’ kan werken, suggereert dat we via prompts toegang krijgen tot al de geaccumuleerde cultuur in de trainingsdata. Groys schreef dit in een artikel op e-flux, twee jaar geleden – in AI-jaren een eeuwigheid. Maar het idee van de tijdsgeest veronderstelt een drijfveer die cultuurproducten voortbrengt, niet slechts een database die ze opslaat.

Behaagzucht blijft immers de beperkende factor: AI is alleen in staat te produceren wat het verwacht dat we willen zien. Het kan niet zelfstandig uitbreken. Het wonderlijke is dat je eindeloos opdrachten kunt geven en dat het systeem onvermoeibaar blijft – hoogstens rekent het hoge gebruikskosten aan, met een niet geringe ecologische voetafdruk. Die zielloosheid is de fundamentele tekortkoming. AI wil niets, heeft geen aandrang om te creëren, en gaat niet uit zichzelf vertellen wat het weet. Het is geen rondwarende geest, maar een getemde verschijning die na elke wens braaf terug de fles in kruipt.

Dalí was een meester in het oproepen van dergelijke krachten. Zijn paranoïde-kritische methode werkte door eerst te hallucineren (door halfwakende hazenslaapjes in zijn artistieke proces op te nemen) en dan bij volle kennis een selectie te maken – een proces dat oppervlakkig gezien niet eens zo verschilt van hoe een generative adversarial network werkt. De resulterende schilderijen zijn altijd minstens op twee manieren te interpreteren; ze functioneren als visuele paradoxen waarin één beeld tegelijkertijd twee verschillende voorstellingen kan zijn. Deze techniek laat de symbolische betekenis van een object voortdurend verschuiven. Het is een twijfelend begrijpen dat de kern raakt van hallucineren: de werkelijkheid wordt onduidelijk en volledig afhankelijk van wat de kijker erin projecteert. Dalí’s methode laat zien hoe deze twee interpretaties afwisselend kunnen bestaan. Het is vergelijkbaar met hoe goede horror een investering van de kijker vereist om te geloven dat er iets griezeligs kan verschijnen, en met diffusiemodellen die iets kunnen laten opdoemen uit een digitale pixelmist.

Hal Foster beschrijft in Compulsive Beauty hoe Dalí zich voor deze methode baseerde op een tekst van Jacques Lacan uit 1933, ‘Le Problème du style et la conception psychiatrique des formes paranoïaques de l’expérience’. Lacan beschrijft daarin hoe de paranoïde ervaring kennisproductie mogelijk maakt die buiten de rationele orde valt. Het idee dat de betekenis van objecten zich openbaart in steeds nieuwe variaties was de basis voor Dalí’s dubbelzinnige beelden. Cruciaal is Lacans stelling dat de realiteitswaarde van deze paranoïde symbolen niet wordt verminderd door het feit dat ze buiten het redelijke, alledaagse zijn opgeduikeld, wel integendeel.

Het onderscheidt Dalí’s methode van AI-generatie. Waar de paranoïde-kritische methode verwijst naar een andere vorm van kennis – die subversief kan zijn, omdat niet één zienswijze als absoluut wordt geaccepteerd – blijft AI gevangen in statistische behaagzucht: het mechanisch voldoen aan verwachtingen op basis van eerdere data. AI-systemen zijn ontworpen om patronen uit bestaande data te reproduceren en gebruikers tevreden te stellen, niet om de belevingswereld uit te breiden, laat staan om te provoceren of te ontwrichten. Zonder die kern verhoudt neurosurrealisme zich tot historisch surrealisme als fineer tot massief hout.

Deze verschillen maken het ook moeilijk om over AI te schrijven. Een van de problemen van schrijven over een kunstmatig gegenereerd beeld is dat het zo veranderlijk is: elke opdracht om iets te maken levert weer een nieuw particulier beeld op. Alleen wanneer een beeld in het nieuws komt, en dus in het publieke domein, is het mogelijk om erover te praten. Generatieve kunstmatige intelligentie is ongrijpbaar. Hoe dichterbij je komt, hoe veranderlijker ze wordt. Het is daarom bijna alleen mogelijk om over de werking ervan te spreken, over de structuren die zijn aan te wijzen en welke ‘ruimte’ ze innemen.

Door meer afstand te nemen en een meer abstracte voorstelling te krijgen, wordt duidelijk dat het onmogelijk is dat er uit generatieve AI ooit een oorspronkelijke stijl zal ontstaan. De systemen kunnen niet buiten de kaders van patroonherkenning treden. Wat resteert is semantische verwarring tussen generatief en creatief – tussen een voortzetting van wat al aanwezig was en iets nieuws dat wordt gemaakt buiten bestaande kaders. De vraag is niet langer of een kunstmatig gegenereerd beeld meer kan dan imiteren, maar of we bereid zijn het verschil te blijven zien tussen een beeld dat ontstaat uit statistische waarschijnlijkheid of uit het menselijke verlangen naar het nieuwe.

 

Dit artikel werd geschreven met de steun van het Mondriaan Fonds.