Utvecklaren i fråga hävdar att ett av företagets AI-botar utvecklat känslor och till och med “blivit en person”.

Med hänvisning till vad som påstås ha skett har Blake Lemoine tagit upp Googles etiska hantering av boten med politiker i USA. Han menar att då AI-modellen Language Model for Dialogue Applications, LaMDA, blivit en person förtjänar den att tillfrågas om de experiment Google använder den till.

LÄS ÄVEN: Dator kan neka dig jobbet – AI sållar bort kandidater

Enligt Lemoine är LaMDA kapabel till att genomföra diskussioner på en mänsklig 7-8-årings nivå. Den ska bland annat ha uttryckt oro över att bli avstängd.

Avvisar påståendena

På Google uppger en talesperson att Lemoines påståenden tagits på allvar och granskats av en panel med etiker och tekniker. Panelen ska dock ha kommit fram till att det inte finns något som stödjer påståendet att boten har utvecklat känslor.

LÄS ÄVEN: Läcka: EU vill införa AI-genomsökning av privatpersoners meddelanden

Vidare hävdar talespersonen att även hundratals andra forskare och utvecklare haft konversationer med boten utan att dra slutsatsen att den utvecklat känslor.