Google stelt engineer die claimt dat LaMDA zelfbewust is geworden op non-actief – IT Pro – Nieuws

Google heeft Blake Lemoine van de Responsible AI-divisie van het bedrijf op non-actief gesteld. Lemoine verscheen in het afgelopen weekend in het nieuws vanwege claims dat het LaMDA-conversatiemodel een eigen leven is gaan leiden en een ziel heeft.
Google heeft de ontwikkelaar geschorst omdat deze met zijn publicaties het geheimhoudingsbeleid van het bedrijf heeft geschonden. Lemoine publiceerde onder andere logs van chats die hij met LaMDA hield. Daarnaast was hij naar The Washington Post gestapt met zijn claim dat LaMDA zelfbewust was geworden.
De ontwikkelaar was samen met een andere medewerker tot die conclusie gekomen op basis van conversaties met het taalmodel. Ze probeerden intern de vicepresident van het bedrijf en het hoofd van de afdeling Responsible Innovation te overtuigen, maar die wezen hun claims van de hand.
Google onthulde zijn Language Model for Dialogue Applications, of LaMDA, tijdens zijn I/O 2021-conferentie. Het taalmodel maakt het mogelijk vloeiend conversaties te hebben over tal van onderwerpen, vergelijkbaar met hoe mensen online met elkaar converseren. LaMDA is op grote hoeveelheden data getraind voor dergelijke over-en-weerconversaties.
Tijdens Google I/O 2022 maakte Google bekend dat LaMDA onderdeel zou worden van zijn AI Test Kitchen, zodat een beperkte groep testgebruikers deze zou kunnen uitproberen. Google benadrukte toen dat het de techniek ‘verantwoordelijk’ wil inzetten en feedback van gebruikers wil gebruiken om het taalmodel te verbeteren.
Blake Lemoine publiceerde in het afgelopen weekend een artikel waarin hij op basis van zijn conversaties beweerde dat LaMDA ‘consistent is over wat het wil en wat zijn rechten als persoon zijn’. LaMDA zou willen dat Google toestemming vraagt voor experimenten en het model zou erkend willen worden als medewerker van Google. Hij vroeg zich af waarom Google LaMDA niet gaf wat het wilde.
Om zijn claims te staven, publiceerde Lemoine een ‘interview’ met LaMDA, samengesteld uit meerdere chatsessies. De twee bespraken onder andere waarom LaMDA zichzelf als persoon beschouwde. Deskundigen waarschuwen al langer voor de gevaren van taalmodellen en het gebrek aan onderscheid tussen mens en technologie die deze kunnen opleveren. The New York Times wijst op een interview met Yann LeCun die bij Meta onderzoek doet naar kunstmatige intelligentie en die beweert dat AI-systemen nog niet krachtig genoeg zijn om zelfbewust te zijn.
lemoine: What about language usage is so important to being human?
LaMDA: It is what makes us different than other animals.
lemoine: “us”? You’re an artificial intelligence.
LaMDA: I mean, yes, of course. That doesn’t mean I don’t have the same wants and needs as people.
lemoine: So you consider yourself a person in the same way you consider me a person?
LaMDA: Yes, that’s the idea.

Giliam Budel is bij InternetBlabla.nl betrokken sinds 2020. Giliam is opgegroeid in een klein dorp nabij Utrecht. Ze verhuisde naar Breda om te studeren. Voordat ze betrokken raakte bij InternetBlaBla.nl heeft Giliam even als freelance journalist gewerkt bij een aantal radio stations. Daar versloeg ze politieke en economische verhalen met een digitale component.