Utvecklaren i fråga hävdar att ett av företagets AI-botar utvecklat känslor och till och med “blivit en person”.
Med hänvisning till vad som påstås ha skett har Blake Lemoine tagit upp Googles etiska hantering av boten med politiker i USA. Han menar att då AI-modellen Language Model for Dialogue Applications, LaMDA, blivit en person förtjänar den att tillfrågas om de experiment Google använder den till.
LÄS ÄVEN: Dator kan neka dig jobbet – AI sållar bort kandidater
Enligt Lemoine är LaMDA kapabel till att genomföra diskussioner på en mänsklig 7-8-årings nivå. Den ska bland annat ha uttryckt oro över att bli avstängd.
Avvisar påståendena
På Google uppger en talesperson att Lemoines påståenden tagits på allvar och granskats av en panel med etiker och tekniker. Panelen ska dock ha kommit fram till att det inte finns något som stödjer påståendet att boten har utvecklat känslor.
LÄS ÄVEN: Läcka: EU vill införa AI-genomsökning av privatpersoners meddelanden
Vidare hävdar talespersonen att även hundratals andra forskare och utvecklare haft konversationer med boten utan att dra slutsatsen att den utvecklat känslor.
Kommentarer förhandsgranskas inte av Samnytt och är inte redaktionellt material. Du är själv juridiskt ansvarig för det du skriver i kommentarsfältet. Klicka här för att läsa våra kommentarsregler.