Kunstmatige intelligentie, echte kwestie
Slimme doos of echte jongen?
Door Neil Osterweil Uit het doktersarchief
24 september 2001 --Als je een machine maakt die zelfstandig kan redeneren, heb je dan leven gemaakt? Heb je een verantwoordelijkheid voor dat leven of heb je slechts een nieuw stuk slimme hardware in elkaar gezet dat verouderd zal zijn door het volgende nieuwe ding?
In de Steven Spielberg-Stanley Kubrick film AI (als in kunstmatige intelligentie) creëert een robotfabrikant David, een synthetische jongen die geprogrammeerd is om lief te hebben. Zijn menselijke eigenaar start een programma dat de affecties van de cyberkid onomkeerbaar vastlegt op zijn eigenaar.
Maar met het ontwerpen en bouwen van David heeft de robotmaker een ander Frankensteins monster gecreëerd. De schijnbaar zelfbewuste "mecha" (afkorting van "mechanisch") verlangt naar liefde van zijn menselijke "moeder" en verlangt er net als Pinocchio naar om een "echte" jongen te worden.
De film roept zowel intrigerende als verontrustende filosofische vragen op over wat het betekent om mens te zijn, om een gevoel van eigenwaarde te hebben, en om een uniek, onafhankelijk wezen te zijn dat respect en rechten volgens de wet waard is.
Wanneer David, om zichzelf te redden van de beschimpingen en bedreigingen van jongens van vlees en bloed, per ongeluk de zoon van zijn eigenaar verwondt, wordt hij achtergelaten in het bos en aan zijn lot overgelaten. Hij komt terecht in het gezelschap van grillige, kapotte, halfgevormde robots die in leven blijven door reserveonderdelen van een stortplaats te halen.
Maar alleen omdat David huilt en smeekt om bij de vrouw te blijven die hij mama noemt, en vlucht wanneer hij wordt opgespoord door premiejagers, zijn zijn instincten van angst en zelfbehoud echt, of zijn ze slechts een briljante mechanische en elektronische simulatie van hoe een echte jongen zou reageren? Maakt het wat uit?
Ik denk dus ik ben?
Nick Bostrom, PhD, docent filosofie aan de Yale University in New Haven, Conn., zegt dat het er wel degelijk toe doet.
"Ik denk dat zodra een entiteit gevoelig wordt -- in staat om pijn of plezier te ervaren -- het een soort morele status krijgt, alleen al door de mogelijkheid om te lijden," vertelt Bostrom aan dokter. "Ook al hebben dieren geen mensenrechten -- en vinden de meesten van ons het acceptabel om ze te gebruiken voor medisch onderzoek -- toch zijn er grenzen. We staan niet toe dat mensen dieren martelen zonder enige reden."
Frank Sudia, JD, heeft iets andere criteria. Hij zegt dat het vermogen om één of meer keuzes te maken en daarnaar te handelen uit meerdere opties, en het vermogen om te beslissen welke van de duizenden mogelijkheden de beste is om te gebruiken in een onvoorziene situatie, een basiswerkdefinitie kan zijn van wat het betekent om "te zijn".
"Als de machine het vermogen tot zelfproductie heeft -- als zij haar eigen doelen kan zoeken of zelfs haar eigen doelen kan kiezen uit een lijst van doelen waarover zij in de krant leest [en besluit], 'Oh, ik wil op Madonna lijken,' -- denk ik dat dit vermogen om te kiezen, geleid hoe dan ook, niet te onderscheiden is van wat wij beschouwen als ons gevoel van zelf," vertelt hij dokter.
Sudia is een e-commerce security consultant uit San Francisco en zelfverklaard ethicus, wetenschapper en denker over intelligente systemen. Hij vergelijkt de rol van de ontwerper van kunstmatige intelligentiesystemen of robotmaker met die van de ouder van een puber.
"De tiener begint een goede verscheidenheid aan reacties te krijgen [maar] geen echt geweldig terughoudend systeem," zegt hij. "Je probeert hun karakter zo te vormen dat ze redelijke keuzes maken die voor hen sociaal gunstig zijn. Je speelt dus in hoge mate voor God met je kinderen. Vergeet ze te vormen tot Mozart -- je probeert ze te vormen tot iets dat kan overleven door ze een zelf te laten hebben."
Ik maak keuzes, daarom ben ik?
Het vermogen om keuzes te maken alleen duidt niet op autonomie, merkt Bostrom op. De computer Deep Blue versloeg schaakgrootmeester Gary Kasparov. Hij kan kiezen uit miljoenen mogelijke schaakzetten in een bepaalde situatie, maar probeer hem maar eens naar de overkant van de straat te sturen om een kwart melk te kopen.
"Om een mens autonomie te verlenen, hebben we er nogal wat van nodig," zegt Bostrom. "Kinderen hebben niet het volledige scala aan autonomie, hoewel ze meer kunnen dan schaakzetten kiezen of dat soort eenvoudige keuzes maken. Het vereist een opvatting over hun welzijn en een levensplan en dat soort dingen. Ik denk niet dat een machine die nu op aarde bestaat, gevoel of autonomie heeft."
Om te kunnen zeggen dat een machine zelfbewust is en dus een bewust wezen is, moeten we eerst weten wat het is om bewust te zijn. Ten minste één menselijke geest beweert dat we geen flauw benul hebben van de aard van het bewustzijn.
Margaret Boden, PhD, hoogleraar filosofie en psychologie aan de Universiteit van Sussex, Engeland, vertelt dokter dat het misschien wel mogelijk is om een robot te maken die een zelfbewust, autonoom wezen lijkt te zijn.
"In principe zou er een computersimulatie van zo'n wezen kunnen bestaan, want alles wat de menselijke geest doet is afhankelijk van het menselijk brein," zegt ze. "Maar als je me vraagt of die robot bewust zou zijn, zou ik zeggen dat we niet eens weten wat het is om te zeggen dat we bewust zijn."
Zelfs als we aannemen, zoals Spielberg en Kubrick doen, dat het mogelijk is om een robot te creëren die in staat is om in zijn eigen belang te handelen en pijn, verlies en eenzaamheid te voelen, zullen we hem dan behandelen als een van ons, of als gewoon een ander slim broodrooster?
Ik koop boodschappen, daarom ben ik?
Als we emotioneel gemanipuleerd kunnen worden door een film - een andere vorm van gesimuleerd leven - of als we genieten van de Las Vegas-versie van Parijs, dan kunnen we zeker beïnvloed worden door het gehuil van een robotbaby of de smeekbeden van een kunstmatige jongen zoals David in AI. En het is die interface -- de doos die de hardware bevat (een robotbrein) en de manier waarop de software met de gebruiker interageert die het verschil kan maken.
"Als een AI op een hond gaat lijken, heeft hij misschien de rechten van een hond. ... Als het op Einstein gaat lijken, heeft het misschien de rechten van een Einstein," zegt Sudia.
Het is zeker mogelijk om een intelligent systeem te ontwerpen dat bijvoorbeeld voor ons de boodschappen kan doen en aan de kassa kan betalen. Daarvoor hoeft het niet op een mens te lijken, zegt Ian Horswill, PhD, assistent-professor computerwetenschappen aan de Northwestern University in Evanston, Ill.
"Je kunt systemen hebben die in alle opzichten intelligent zijn -- in ieder geval een stuk intelligenter dan potloden of tekstverwerkers -- maar niet de ... kenmerken van het menselijk bestaan hebben," vertelt Horswill aan doctor.
Er is bijvoorbeeld geen reden dat een winkelrobot op je oom Chuck moet lijken. Het zou een rollende kassa kunnen zijn - een simpele doos met een scherm, grijparmen om dozen corn flakes van de plank te pakken, en een lade voor het wisselgeld. Maar het zou nog steeds een "het" zijn en geen "hem" of een "haar", stelt Horswill.
"Je zou een machine kunnen bouwen met een Commander Data-achtig lichaam en het emoties geven, en dan zijn hersenen verwijderen en het in een vuilnisbakrobot met een geldlade stoppen en het alleen in morsecode laten communiceren," zegt hij, "Ik denk dat de meeste mensen veel meer bereid zouden zijn om de vuilnisbakrobot uit te schakelen dan Commander Data.