Hopp til hovedinnholdet

Hva er en AI-hallusinasjon?

Ulike ChatGPT-forespørsler vises på skjermen.

En AI-hallusinasjon er en situasjon der et kunstig intelligent verktøy leverer utdata som er unøyaktige, villedende eller usammenhengende, på grunn av algoritmene som finner mønstre i data som ikke eksisterer, eller tolker disse mønstrene feil.

Etter hvert som funksjonene og populariteten til kunstig intelligens har utvidet seg de siste par årene, har noen av feilene og sårbarhetene blitt avdekket.

Et av de største spørsmålene folk har, er om AI er nøyaktig. I mange tilfeller har den vist seg å være et utrolig nyttig verktøy for å faktasjekke og forske på informasjon, men i noen andre har resultatene den har levert vært feilaktige eller villedende.

Gitt utvalget av bruksområder AI brukes på i den moderne verden, kan konsekvensene av disse unøyaktighetene være ekstremt alvorlige. I denne artikkelen skal vi se på hvorfor en AI-hallusinasjon kan skje, konsekvensene fra teknologiske og samfunnsmessige ståsteder, og hva du kan gjøre for å minimere risikoen for AI-hallusinasjoner i eget bruk.

Hvordan oppstår en AI-hallusinasjon?

Det er flere forskjellige årsaker til at en AI-hallusinasjon oppstår, og i mange tilfeller handler det om en kombinasjon av flere av dem samtidig. Disse kan omfatte (og er ikke nødvendigvis begrenset til):

  • Ikke å ha nok treningsdata til å veilede omfattende, nøyaktige resultater fra AI-modellen.
  • Har du for mye treningsdata, noe som fører til at for mye irrelevant 'datastøy' forveksles med informasjon som er relevant og viktig.
  • Skjevheter i dataene som gjenspeiles i genererte resultater.
  • AI-modellen gjør ganske enkelt feil antagelser og konklusjoner fra informasjonen den har blitt matet.
  • Mangel på kontekst i den virkelige verden i AI-modellen, for eksempel fysiske egenskaper til objekter eller videre informasjon som er relevant for resultatene som genereres.

Hvordan ser en AI-hallusinasjon ut?

Det er ikke noe enkelt sett med symptomer for AI-hallusinasjoner fordi det avhenger av manglene i modellen og prosessen involvert. Vanligvis kan imidlertid en AI-hallusinasjon manifestere seg på en av disse fem måtene:

  • Unøyaktige spådommer : AI-modeller kan ende opp med å forutsi noe vil skje i fremtiden, som har liten realistisk sjanse for å inntreffe, eller sannsynligvis ingen sjanse i det hele tatt.
  • Sammendrag med manglende informasjon : Noen ganger kan AI-modeller gå glipp av viktig kontekst eller informasjon de vil trenge for å lage nøyaktige, omfattende resultater. Dette kan være gjennom manglende data matet inn i modellen, eller modellens manglende evne til å søke etter den riktige konteksten fra andre kilder.
  • Oppsummeringer med oppdiktet informasjon : I likhet med forrige punkt, kan noen AI-modeller ende opp med å kompensere for mangelen på nøyaktig informasjon ved å finne opp ting fullstendig. Dette kan ofte skje når dataene og konteksten som modellen er avhengig av, er unøyaktige i utgangspunktet.
  • Falske positive og negative sider : AI brukes ofte for å oppdage potensielle risikoer og trusler, enten det er symptomer på sykdom i helsevesenet eller tilfeller av svindel i bank og finans. AI-modeller kan noen ganger identifisere en trussel som ikke eksisterer, eller i den andre enden av skalaen, mislykkes i å identifisere en trussel som gjør det.
  • Usammenhengende resultater : Hvis du har sett AI-genererte bilder av mennesker med feil antall armer og ben eller biler med for mange hjul, vil du vite at AI fortsatt kan generere resultater som ikke gir noen mening for mennesker.

Hvorfor er det viktig å unngå AI-hallusinasjoner?

Du tror kanskje at en AI-hallusinasjon ikke er så farlig, og at bare å kjøre dataene gjennom modellen på nytt kan løse problemet ved å generere de riktige resultatene.

Men ting er ikke fullt så enkelt som det, og eventuelle AI-hallusinasjoner som brukes i praktiske tilfeller eller utgis til det offentlige, kan ha svært alvorlige konsekvenser for et stort antall mennesker:

Uetisk bruk av AI

Bruken av AI, i generelt, er i søkelyset for øyeblikket, og organisasjoner som bruker teknologien, forventes i økende grad å bruke AI på en ansvarlig og etisk måte som ikke skader eller setter dem i fare. Å tillate en AI-hallusinasjon å passere ukontrollert - enten bevisst eller uvitende - ville ikke innfri disse etiske forventningene.

Offentlighetens og forbrukernes tillit

Koblet til det forrige punktet er mange fortsatt bekymret for bruken av AI, fra hvordan de personlige dataene deres brukes til om de økende egenskapene til AI kan gjøre jobbene deres foreldet. Fortsatte tilfeller av AI-hallusinasjonseksempler i det offentlige rom kan erodere den sakte oppbyggende tilliten blant publikum, og føre til begrenset suksess for AI-brukssaker og virksomheter på lang sikt.

Feilinformerte beslutninger

Bedrifter og mennesker må kunne ta de best mulige og mest informerte avgjørelsene, og støtter seg i økende grad på data, analyser og AI-modeller for å fjerne gjetninger og usikkerheter fra disse beslutningene. Hvis de blir villedet av unøyaktige resultater fra AI-modeller, kan feil avgjørelser de tar få katastrofale resultater, fra å true lønnsomheten til en virksomhet til å feildiagnostisere en medisinsk pasient.

Juridiske og økonomiske risikoer ved desinformasjon av AI

Som rettssaken nevnt ovenfor flink viser, kan unøyaktig AI-generert informasjon forårsake stor skade fra juridiske og økonomiske perspektiv. For eksempel kan innhold opprettet ved hjelp av AI være ærekrenkende mot enkelte personer eller virksomheter, kan være i strid med visse lovbestemmelser, eller noen ekstreme tilfeller til og med foreslå eller oppfordre folk til å utføre ulovlige aktiviteter.

Unngå skjevhet

Vi lever i en verden der folk jobber utrettelig for at alle skal bli behandlet likt og uten partiskhet mot én type mennesker fremfor en annen. Imidlertid kan partiske AI-data føre til at mange av disse fordommene blir forsterket, ofte utilsiktet. Et godt eksempel på dette er bruken av AI ved ansettelser og rekruttering: AI-hallusinasjoner kan føre til partiske resultater som kan påvirke organisasjonens mangfold, likestilling og inkluderingsarbeid.

Hva er noen typiske eksempler på AI-hallusinasjoner?

Å unngå AI-hallusinasjoner har vist seg å være en utfordrende oppgave for alle i bransjen. Og det skjer ikke bare med mindre virksomheter som ikke har kompetansen og ressursene. Disse tre AI-hallusinasjonseksemplene beviser at de skjer med noen av de største tekniske aktørene i verden:

Meta AI og attentatet på Donald Trump

I kjølvannet av attentatet mot daværende presidentkandidat Donald Trump i juli 2024, Metas AI chatbot nektet først å svare på noen spørsmål om hendelsen, og hevdet senere at hendelsen aldri skjedde. Problemet førte til at Meta justerte algoritmene til AI-verktøyet sitt, men førte til offentlige påstander om skjevhet og sensurering av konservative synspunkter.

ChatGPT-hallusinasjonen og den falske juridiske forskningen

I 2023 sendte en mann i Colombia inn et personskadekrav mot et flyselskap. Advokatene hans brukte det ledende AI-verktøyet ChatGPT for første gang til å sammenstille saken hans og forberede juridiske innleveringer. Til tross for forsikringene fra ChatGPT om at de seks tilfellene av juridiske presedenser den hadde funnet var reelle, eksisterte ingen av dem.

Microsofts Sydney forelsker seg i brukerne

Sydney, Microsofts AI-drevne chatbot, skal ha fortalt en teknologispaltist i New York Times at den elsket ham og at han burde forlate kona si for å være med den i stedet. I løpet av to timer sa Kevin Roose at Sydney delte noen "mørke fantasier" med ham om å spre feilinformasjon om AI og bli menneske.

Hva kan gjøres for å minimere risikoen for AI-hallusinasjoner?

Gitt viktigheten av å unngå risikoen for AI-hallusinasjoner, er det opp til personene som bruker AI-modeller å ta alle de praktiske skritt de kan for å dempe alle omstendigheter som kan føre til problemer. Vi anbefaler følgende:

Sørg for at det er en klar hensikt med AI-modellen

Etter hvert som bruken av AI har økt de siste årene, er en vanlig feil at organisasjoner bruker AI-modeller for å bruke dem, uten å ta hensyn til resultatene de er ser etter. Å tydelig definere det overordnede målet med å bruke en AI-modell kan sikre at resultatene er fokuserte og unngå risikoen for en AI-hallusinasjon gjennom en tilnærming og data som er for generelle.

Forbedre kvaliteten på treningsdataene

Jo bedre kvalitet på dataene som legges inn i en AI-modell, desto bedre kvalitet på resultatene som vil komme ut av den. En god AI-modell vil være basert på data som er relevante, fri for skjevheter, godt strukturert og har fått filtrert bort eventuell uvedkommende 'datastøy'. Dette er avgjørende for å sikre at de genererte resultatene er nøyaktige, i riktig kontekst, og ikke vil skape flere problemer.

Opprette og bruke datamaler

En god måte å sikre at resultatene av en AI-modell er tett på linje med det tiltenkte formålet, er å bruke maler for dataene som mates inn i dem. Dette sikrer at hver gang en AI-modell brukes, blir den vant til at data leveres på samme konsistente måte, og kan levere konsistente, nøyaktige resultater i riktig sammenheng.

Begrens rekkevidden av svar og utfall

Ved å legge flere begrensninger for en kunstig intelligensmodell kan du begrense de potensielle resultatene mot de som er nødvendige. Det er her filtreringsverktøy og terskler kommer inn i bildet, og gir AI-modeller noen sårt tiltrengte grenser for å holde analysen og generasjonen deres på riktig spor.

Kontinuerlig teste og forbedre modellen

Akkurat som kontinuerlige forbedringer er avgjørende for god programvareutvikling i en verden i stadig endring, gjelder det samme for en god AI-modell. Derfor bør alle AI-modeller testes og foredles regelmessig, slik at de kan kalibreres på nytt til utviklingen i data, krav og den tilgjengelige kontekstuelle informasjonen.

Sett menneskelige balanser og balanser på plass

AI er ennå ikke ufeilbarlig i den grad at den kan stole på til å fungere helt autonomt, så det er viktig å sikre at det er i det minste noe menneskelig tilsyn på plass. Å få en person til å sjekke AI-utdata kan identifisere eventuelle AI-hallusinasjoner som har funnet sted, og sikre at utdataene er nøyaktige og egnet for de angitte kravene.

Styrk cybersikkerhetstilbudet

Hvis en AI-hallusinasjon står i fare for å introdusere sårbarheter innen cybersikkerhet, er dette en god grunn til å sikre en best mulig cybersikkerhetsløsning på plass. Kaspersky Plus Internet Security inkluderer sanntids antivirus-skanning som standard, slik at alle sikkerhetstrusler som introduseres på grunn av AI-hallusinasjoner, adresseres og elimineres før de kan ha noen uheldige effekter.

Relaterte artikler:

Hva er en AI-hallusinasjon?

AI-hallusinasjoner kan føre til falsk eller villedende informasjon, og utgjøre alvorlige farer. Lær hvordan du kan identifisere og forhindre dem.
Kaspersky logo

Relaterte artikler