Het opiniestuk van Lode Lauwaert, professor techniekfilosofie, heeft het voordeel van de duidelijkheid (DS 26/10). ‘Verbied superintelligentie nu.’  
     Artificiële superintelligentie (ASI) is, als ik het goed begrepen heb, is iets wat nog niet bestaat, maar dat veel AI-bedrijven proberen te ontwikkelen. Het is een verdere ontwikkeling binnen AI dat alle cognitieve taken van de mensheid kan uitvoeren, maar oneindig veel beter, en dat zichzelf kan kopiëren en verspreiden, dat een eigen wil kan ontwikkelen, en dat door de mensen niet meer kan worden gecontroleerd. De conclusie van Lauwaert en andere experts – o.a. Yuval Harari – luidt: ‘Er moet een wereldwijd verbod komen op het onderzoek en de ontwikkeling van superintelligente technologie.’
     Hoe groot het gevaar precies is dat superintelligentie de mensheid zal domineren in plaats van omgekeerd, kan ik als leek niet inschatten. Het gevaar bestaat altijd dat ‘the machines will take over.’ Misschien leven we nu al zonder dat we het weten in een computersimulatie en is het opiniestuk van Lauwaert niets meer dan een afleidingsmaneuver om ons zand in de ogen te strooien.
     Overigens zijn niet alle argumenten van Lauwaert even sterk. Zo haalt hij aan dat AI misbruikt kan worden voor het verspreiden van nepnieuws, surveillance en virussen, en dat ASI dat nog veel efficiënter kan doen. Maar elke technologie kán misbruikt worden. Zonder het wiel hadden we geen strijdwagens en geen tanks gehad. Mogelijk misbruik van een technologische ontwikkeling mag geen argument zijn om de vooruitgang stop te zetten. 
     Vervolgens wijst Lode Lauwaert op de moeilijke communicatie tussen menselijke en artificiële intelligentie. Zelfs als we ASI kunnen dicteren welke waarden er moeten worden nagestreefd, kan ASI die waarden verkeerd interpreteren.
Neem dit herkenbare voorbeeld. We geven een AI-systeem de taak om maximale efficiëntie te bereiken op het werk. Om die taak perfect uit te voeren, zou AI kunnen besluiten om ongeplande pauzes, discussies of meetings te elimineren omdat die de output zouden verminderen. Het resultaat is een hyperefficiënt, maar onmenselijk werkklimaat dat waarden als welzijn en autonomie bedreigt.
     Het is een sprekend voorbeeld, maar de lezer kan moeilijk de gedachte onderdrukken: is dat alles? We kunnen dat AI-systeem toch ook vragen om rekening te houden met de menselijke natuur en met onze behoeft aan welzijn en autonomie. In de film The Matrix hadden de machines zelfs rekening gehouden met de menselijke behoefte aan miserie en imperfectie.
     De grote vraag is bovendien of het verbieden van superintelligentie überhaupt mogelijk is. Het ASI-verbod vereist volgens Lauwaert 
een bindend internationaal verdrag en een onafhankelijk inspectieorgaan (naar analogie van het Internationaal Atoomenergieagentschap) ... dat toeziet op de technische limieten om de groei van AI te stoppen.
    Het valt niet uit te sluiten dat er binnen 200 jaar, als het 198 jaar te laat is,  een geopolitieke context bestaat die zo’n onafhankelijk inspectieorgaan mogelijk maakt, maar die mogelijke wereld van binnen 200 jaar is een heel andere wereld dan die die we nu kennen. Wie zal er bijvoorbeeld in de huidige wereld in slagen om China – en het Chinese leger – onder druk zetten om de ontwikkeling van AI af te remmen? Het Internationaal Atoomenergieagentschap heeft dat land ook niet verhinderd om een atoombom te ontwikkelen.
      Lauwaert put moed uit enkele voorbeelden van de recente geschiedenis.
In het verleden waren grote gevaren vaak voldoende om een technologie te willen verbieden – denk aan chemische wapens, menselijk klonen, antipersoonsmijnen, kernwapens en crispr voor erfelijke genoommodificatie.
           Vooral die chemische wapens, antipersoonsmijnen en kernwapens vormen een erg gebrekkig analogie. Men is er niet in geslaagd om die zaken te verbieden, alleen om ze te beperken. Maar bij ASI, als ik de redenering volg van Lauwaert, is het een zaak van alles of niets. Het is voldoende dat één land de superintelligentie ontwikkelt en de hele mensheid is in gevaar.
     Ik denk dat het wishful thinking is van Lauwaert dat ASI kan worden tegengehouden. Mijn wishfull thinking is dat Lauwaert de negatieve gevolgen van ASI overschat. Zo zijn we allebei van de strekking optimism is a moral duty.
 
Geen opmerkingen:
Een reactie posten