Vanlige fallgruver ved bruk av generativ AI

Generativ AI er i ferd med å endre hvordan vi jobber – men bruker vi det egentlig fornuftig? Her er fem vanlige fallgruver du bør unngå.

Wessel Braakman

Trykk på taggene for å lese mer om hvor og hvordan vi benytter samme fag og teknologi


Bilde av Wessel som har skrevet artikkelen

Generativ AI brukes overalt rundt oss – kanskje bruker du det selv daglig. Men har du noen gang spurt deg selv: Bruker jeg den på riktig måte? Finnes det beste praksiser – ting jeg bør eller absolutt ikke bør gjøre når jeg bruker generativ AI? Her får du en oversikt over fem av de viktigste tingene du bør huske på når du jobber med generativ AI. 

 

1. Å bruke den overalt, bare fordi du kan

Det å bruke generativ AI som ChatGPT, Microsoft Copilot eller lignende ER veldig gøy. Den kan lage velskrevne tekster på kommando, raskt. Den kan generere kreative bilder, raskt og til med lage en instruksjonsvideo for deg. 

Det at du KAN bruke AI til alt dette, betyr ikke at du alltid BØR. Noen oppgaver kan til og med ta lengre tid med AI, fordi resultatet ikke ble helt som du ønsket. Andre ganger mangler det AI-genererte innholdet din personlige touch, eller nyanser som mennesker fanger opp. Til slutt kan for mye automatisering skape avstand mellom deg og selve oppgaven.

Eksempel: Du er produkteier i IT og bruker generativ AI til å bestemme produktets videre retning. Du kan ende opp med ukritisk å følge det AI-en foreslår, uten å reflektere over hva sluttbrukerne faktisk vil ha, uten å begrunne valgene – og til slutt glemme å tenke selv.

Tips: Reflekter alltid når du får et AI-forslag. Spør deg som produkteier: "Er dette virkelig det sluttbrukeren ønsker?"
Husk at AI ikke oppfatter nyanser og kroppsspråk fra brukerne. Den kan misforstå behov og ønsker.

2. Å stole blindt på svarene

Verktøy som ChatGPT leverer ofte svært, SVÆRT velskrevne tekster – nærmest menneskelige. Problemet er at teksten virker profesjonell selv når svaret er fullstendig FEIL. Ikke alle generative AI-systemer er like, men noen kan:

  • blande fakta fra helt ulike studier

  • dikte opp ikke-eksisterende "kilder"

  • gi umulige tekniske detaljer

Likevel ser teksten proff ut, så mange tar den for sannhet og kopierer den videre. Denne produksjonen av feilaktige svar kalles "hallusinasjon", og den skjer oftere enn vi tror. Hvis vi ikke passer på, bruker vi plutselig hallusinasjoner som fakta!

Eksempel: En utvikler får en kodebit fra AI som ser bra ut, men inneholder en skjult sikkerhetsrisiko. Eller en bruker aksepterer et AI-generert juridisk dokument uten å sjekke det mot loven, noe som får dem til å godta noe de ikke burde.

Tips: Behandle alltid AI-resultater med skepsis. Er du usikker på om du kan stole på svaret: gjør egen research!

3. "Google-hjerne"

Før mobiltelefonene husket vi lett dusinvis av telefonnumre. Etter mobilen kom, trenger vi det ikke lenger, og mange sliter med å huske sitt eget nummer.

Hvis AI tar alle beslutninger for oss eller forenkler tekster som krever litt innsats, kan vi glemme å tenke selv. Vi venner oss så mye til at AI «tenker» for oss at vi slutter å stille spørsmål eller utfordre antakelser.

Eksempel: Et team lar AI generere test-caser for hver funksjon og slutter dermed å diskutere HVORFOR testene er viktige, eller om de faktisk dekker de riktige risikoene.

Tips: Ikke bruk AI som erstatning for din egen (kritiske) tenkning. Bruk den til å STØTTE tenkingen!
Refleksjon og nysgjerrighet skiller oss fortsatt fra automatiseringen, og kan være viktigere enn noen gang.

4. (Data)sikkerhet

Det er lett å glemme det, men hver gang du limer inn informasjon i et AI-verktøy eller en chat, blir den informasjonen "offentlig". De fleste AI-verktøy er skybaserte, og kan logge eller lagre det du skriver, selv anonymt.

Dette er ikke alltid et problem, men jobber du med interne dokumenter, kundedata, passord eller prosjektplaner, må dette være top of mind. Å sende inn data uten å tenke deg om kan skape problemer for personvern og compliance, særlig i strengt regulerte bransjer.

Eksempel: En produkteier limer inn detaljert kundefeedback i et AI-verktøy for å få et sammendrag, uten å tenke på at dette inneholder sensitiv persondata.

Tips: Følg retningslinjene i din bransje. Er du i tvil – IKKE send inn det du hadde tenkt å sende inn. Bruker du AI regelmessig, bør du undersøke muligheten for sikre, lokalt hostede alternativer i stedet for skybaserte verktøy.

5. Manglende åpenhet

Et av de største problemene med generativ AI er at vi ikke egentlig vet hvordan svarene skapes. Vi vet det er en modell med algoritmer og parametere, men vi kan ikke spore alle delene av den endelige avgjørelsen. Systemet fungerer som en "black box": Vi gir input, og får output tilbake.

I felt der sporbarhet, ansvarlighet og/eller rettferdighet er viktig, er dette nesten uløselig. Vi kan ikke alltid forsvare en beslutning tatt av AI, og konsekvensene kan bli store – spesielt når mennesker berøres.

Eksempel: Et HR-team bruker AI til rask CV-screening før de inviterer kandidater til intervju. Hvordan skal de forklare de avviste kandidatene hvorfor de ble avvist? "Fordi AI-system X sa det" er ikke nyttig feedback – og under panseret kan AI ha tatt en ulovlig, partisk beslutning.

Tips: Hvis du har problemer med å forklare HVORFOR en beslutning tas, bør du ikke la AI ta den beslutningen. Den menneskelige faktoren er fortsatt viktig, særlig når avgjørelsen påvirker mennesker.

Oppsummering

Generativ AI kan gjøre arbeidsdagen mer effektiv, men bare om du bruker den ansvarlig. Nøkkelen er å beholde kontrollen ved å følge disse prinsippene:

  • Bruk AI til beslutninger bare på områder du har kunnskap om.

  • Vær varsom når du sender inn data til AI-systemer.

  • Ikke glem å tenke kritisk – vær ALLTID skeptisk til det generativ AI genererer.

  • Lær deg når du kan stole på et AI-svar, og når du bør tvile.

Vi trenger ikke unngå AI, men vi må bruke den på riktig måte. Slik fortsetter vi å tenke selv, og lar AI hjelpe oss med å gjøre det vi gjør best, enda mer effektivt.

Les flere av våre historier

Lurer du på noe? Vi hører gjerne fra deg