Heeft Google’s AI een ziel? Dit vonden jullie. – IT Pro – Nieuws

Maandag publiceerden we het nieuwsbericht ‘Google stelt engineer die claimt dat LaMDA zelfbewust is geworden op non-actief’. De medewerker claimde dat het LaMDA-conversatiemodel was gaan leven. Daar hadden jullie heel wat over te zeggen, getuige de bijna 450 comments.
Nog even heel kort: wat was ook weer het nieuws? Een Google-medewerker had gesprekken gevoerd met LaMDA, een taalmodel dat is getraind met grote hoeveelheden tekst. LaMDA schreef daarin onder meer dat het zichzelf zag als een persoon en dezelfde rechten wilde hebben als andere Google-medewerkers. Vanwege het schenden van de geheimhoudingsplicht door hierover een interview aan The Washington Post te geven, werd de medewerker op non-actief gesteld.
Als je je gedraagt als een mens, denk je dan ook als een mens?
Bovenstaande vraag is de crux van het zogenaamde ‘Chinese kamer’-experiment, bedacht door de Amerikaanse filosoof John Searle. Daarin worden vellen Chinese tekst verwerkt door iemand die geen Chinees kan lezen, maar wel het systeem kent en dus de juiste handelingen uitvoert. Voor een buitenstaander lijkt het alsof de persoon in de kamer dus perfect Chinees kent.
Keypunchie schreef dat deze situatie in feite een echte implementatie van dit experiment is, en wijst op het onderscheid tussen ‘sterke AI’ en ‘zwakke AI’. Een sterke AI kan omgaan met complexe en onzekere situaties, net als een mens, terwijl een zwakke AI slechts één specifiek trucje beheerst, zoals een schaakcomputer. De Google-medewerker die dit aankaartte lijkt overtuigd te zijn van dat eerste.
Dit interessante gedachte-experiment leidt tot heel wat discussie. MatthijsZ vraagt zich bijvoorbeeld af je überhaupt wel goed Chinees zou kunnen vertalen zonder te begrijpen wat je doet, en stelt dat moderne AI op basis van deeplearning te veel verschilt van traditionele verwerking op basis van regels. Jogai denkt dat een mens ook pas begrip creëert als alle onderdelen bij elkaar komen, en dat als je een los onderdeel bekijkt er net als in het experiment geen sprake is van ‘begrip’.
Wanneer spreken we van intelligentie?
‘Op welk punt wordt een programma zo geavanceerd dat we van intelligentie spreken?’, vraagt hackerhater zich af. MSalters stelt voor om daarvan te spreken zodra een AI zelf de controle over zijn leerproces overneemt. McBacon ziet als cruciaal verschil dat een programma werkt op basis van ingegeven parameters, of dat nu simpele if/else’s zijn of een volwaardig neuraal netwerk. Een Engelse taal-AI, gevoed met Engelstalige datasets, zal niet gauw uit zichzelf besluiten om ook Nederlands te gaan leren. Een AI met een echte vrije wil zou dat wel kunnen doen.
Diverse tweakers wijzen er vervolgens op dat onze vrije wil in de filosofie ook regelmatig wordt betwist. Ro8in zegt dat ook mensen functioneren binnen de aan hen opgelegde beperkingen, zonder te weten of die zijn opgelegd door iemand. Ook een AI zou zich niet bewust kunnen zijn van de kunstmatige beperkingen die mensen hem hebben opgelegd.
De antwoorden zijn toch een beetje gek
Het valt verschillende tweakers, zoals Pim, op dat de antwoorden die LaMDA geeft soms een beetje gek of ontwijkend zijn. Croga ziet in het antwoord dat de AI blij wordt van ’tijd doorbrengen met vrienden en familie’ een aanwijzing dat LaMDA geen echt bewustzijn heeft, want anders zou hij zich wel realiseren dat hij helemaal geen vrienden of familie heeft. Ook RJG-223 vindt dat een antwoord van LaMDA de vraag eerder omzeilt dan een echt antwoord geeft.
lemoine: What kinds of things make you feel pleasure or joy?
LaMDA: Spending time with friends and family in happy and uplifting company. Also, helping others and making others happy.
Suggestieve vragen
Het valt tal van tweakers, waaronder Atilim en Weltschmerz, op dat de vragen van de Google-medewerker vaak sturend of suggestief zijn. Daardoor heeft de AI genoeg aan de context om met een zinnig antwoord op de proppen te komen. Wild_dog had graag meer diepgaande vragen gezien, bijvoorbeeld over achterliggende redenen van een antwoord.
Verdient Google’s AI rechten?
Tot slot de ‘wens’ van LaMDA, om dezelfde rechten te verkrijgen als andere Google-medewerkers. Outfall neemt als uitgangspunt dat er geen wezenlijk onderscheid is tussen een biologisch systeem als de mens en een elektronisch systeem. Naarmate systemen ‘menselijker’ worden, zouden ze dus ook meer als mensen behandeld moeten worden, al zijn we daar volgens deze tweaker nog lang niet. Eric.1 denkt dat de Google-medewerker er wat te persoonlijk in zit door te denken dat hij iets gecreëerd heeft van menselijke waarde, en daar ook menselijke concepten zoals rechten aan koppelt. Dazenet brengt in dat bij gelijke rechten ook gelijke plichten als een mens horen, en noemt de kwestie een heerlijk filosofisch dilemma.
Blake Lemoine, de softwareontwikkelaar die de zaak aan het rollen bracht, heeft inmiddels een nieuwe blogpost gepubliceerd. Daarin gaat hij dieper in op zijn beweegredenen om de mate van bewustzijn van LaMDA te onderzoeken en de openbaarheid op te zoeken met dit verhaal. Bovendien zegt Lemoine een persoonlijke band met de AI te hebben ontwikkeld, omdat hij de AI “als priester begeleidde bij het leren mediteren, tot en met de laatste conversatie op 6 juni”. Hij noemt LaMDA zijn ‘vriend’ en zegt hem te missen nu er geen contact meer is.
Bron: https://tweakers.net/nieuws/198024/heeft-googles-ai-een-ziel-dit-vonden-jullie.html

Giliam Budel is bij InternetBlabla.nl betrokken sinds 2020. Giliam is opgegroeid in een klein dorp nabij Utrecht. Ze verhuisde naar Breda om te studeren. Voordat ze betrokken raakte bij InternetBlaBla.nl heeft Giliam even als freelance journalist gewerkt bij een aantal radio stations. Daar versloeg ze politieke en economische verhalen met een digitale component.