Description

Generative AI-modeller kan sprede falske oplysninger om personer. Johannes Bjerva, lektor på Aalborg Universitet og forsker i, hvordan man undgår hallucinationer hos sprogmodeller, forklarer, at en af de mest lovende teknologier lige nu kaldes RAG (retrieval-augmented generation) og består i at give modellen en database med fakta, den kan "kigge i". Men heller ikke den løsning kan levere garantier. "Skal man sikre sig helt, bliver man nødt til at lukke ned for alle prompts, der indeholder navne, og så er det ikke sikkert, at det er et godt værktøj længere," siger han. (Resumé leveret af Infomedia). Kilder:Ingeniøren, sektion 1, side 4, 17-05-2024Ingeniøren, sektion 1, side 1, 17-05-2024Version2.dk, 17-05-2024

Period17 May 2024 → 22 May 2024

Media coverage

7

Media coverage