«AI tar over alle jobbene!» Høres det kjent ut? Kanskje har du til og med testet AI-funksjoner selv? Men hva er egentlig denne magiske AI-en for noe og hva er data science? I denne artikkelen forsøker jeg å forklare hva AI egentlig er og hvilke metoder som har blitt brukt til å lage AI til nå. I tillegg kommer jeg med noen eksempler på muligheter som AI kan gi oss allerede nå!
Jeg tar meg selv stadig i å bli veldig imponert over hva AI får til og sitatet “Any sufficiently advanced technology is indistinguishable from magic” møter meg i døra om og om igjen. La oss sammen ta en titt på hva denne magien egentlig er for noe!
Artikkel av Eirik Morken, som stadig prøver å stille nok "dumme" spørsmål til å kunne forstå ting bedre.
Enheten jeg er en del av i Bouvet spesialiserer seg på data engineering, data science, AI og annen avansert analyse.
Hva er AI og Data Science?
Begrepet AI er ofte dårlig definert og forstått, så dette blogginnlegget er et forsøk på å gjøre helhetsforståelsen av AI bedre. Faget Data Science går ut på å skape mer verdi fra data gjennom avansert analyse og AI.
Jeg husker selv for ca. 5-6 år siden da jeg tok et fag innen data science og for første gang lærte at du kunne skrive ditt eget lille data-program som kunne gjenkjenne håndskrevne tall, med en metode kalt «deep learning».
Denne relativt nye teknikken kunne, blant annet, gjøre en datamaskin i stand til å forstå enkle konsepter den «så» på et lite bilde. Selv noe så enkelt som at den gav rett svar på hvilket tall du hadde skrevet var utrolig spennende. Jeg fikk skikkelig bakoversveis over hva som var mulig da, og vi har mildt sagt kommet et godt stykke videre siden den gang.
AI er så mye mer enn chatboten ChatGPT, som er mest i vinden nå for tiden. AI er alt som prøver å få datamaskiner til å selv kunne gi intelligente svar, uten at vi har en detaljert oppskrift på forhånd. Ideen er å mate en datamaskin med informasjon og data, den lærer av dette og gir smarte svar basert ny informasjon vi gir den. Informasjonen og svar kan, avhengig av hva man prøver å få datamaskinen til å forstå, være tekst, bilder, lyd, tabeller, 3D-figurer osv.
La oss se på litt de forskjellige metodene vi har innen fagfeltet Data Science og hvordan du kan få nytte av det!
Large Language Models (LLM)
Den kuleste AI-en i klassen
Det heteste innen AI akkurat nå er såkalte Large Language Models eller LLM-er, hvor ChatGPT er en slik modell. Teknologi-gigantene har et kappløp i et enormt tempo for å lage bedre og bedre modeller. Disse modellene trenes opp til å forstå konseptet språk, altså hvordan mennesker kommuniserer med ord, for så å skulle være gode på å motta spørsmål eller oppgaver og så gi svar på dette. Målet er at den skal gi et best mulig svar på oppgaven eller spørsmålet. Modellen har spørsmålet som utgangspunkt og produserer så ett og ett ord basert på resten av teksten som allerede er produsert, frem til den har en ferdig tekst. Den ser altså på hva som den allerede har sagt for hvert ord og fortsetter derfra.
I tillegg til oppgaven kan det gis en stor mengde kontekst, noe som ikke er et spørsmål, men som står i relasjon til spørsmålet som skal svares på. Et transkribert møte kan være kontekst og oppgaven kan være «Oppsummer denne møtedialogen i stikkordsform».
Jeg liker å sammenligne slike modeller med hvordan hjernen vår fungerer når vi snakker. Når du snakker og svarer på spørsmål så har du ikke ferdig planlagt hvert eneste ord du skal si. Du har bare et slags overordnet konsept av hva svaret ditt skal være og så kommer ordene «automagisk» i riktig rekkefølge, slik at poenget du har, forhåpentligvis, gir mening for andre. Litt sånn fungerer LLM-er også. Ganske imponerende begge deler spør du meg!
Noen praktisk nytte eller bare hype?
Bruksområdet for slike modeller er veldig stort. Den kan gi sammendrag, skrive om tekst til mer eller mindre formelle former, komme med forslag til fremgangsmåter og mye mer. Det er også spesialiserte modeller som er blitt veldig gode på for eksempel kodespråk. Den trives med å søke i store mengder informasjon og bearbeide det som er relevant for spørsmålet du stiller, med et svar i naturlig språk.
Naturlig språk er tekst i setningsform, slik som vi mennesker snakker og skriver for at andre kan forstå oss. Brukeren kan spørre med naturlig språk og selve informasjonen kan være et sted blant store mengder naturlig språk. Modellene er forhåndstrente på forskjellige data fra hele internett, men kan i tillegg enkelt utvides med bedriftsinterne data og rapporter. Dette kan også kjøres på lukkede servere slik at det ikke skal være noen fare for at intern informasjon lekker ut.
Mester i å strukturere forskjellig informasjon
Har du f.eks. noen gang prøvd å finne informasjon fra en eller annen rapport om Prosjekt X, men har glemt hvor rapporten ligger? Ikke bare må du finne rett rapport, du har heller ikke noe spesielt lyst til å grave igjennom 25 sider med tettskrevet tekst for å finne det du lurer på. Nå kan du heller spørre modellen om et sammendrag av Prosjekt X, og så lager den både sammendrag av prosjektet og gir deg en lenke til dokumentet den fant info i og hvor i dokumentet den fant det.
Dokumentasjon
Har du en uuttømmelig mengde dokumentasjon, som i tillegg kanskje er skrevet på en vanskelig måte, og som er tungvint å bruke og navigere i? Du kan la en LLM tygge igjennom det for deg! Du stiller spørsmål med naturlig språk og modellen kan gi forenklede steg-for-steg-forklaringer på noe du hadde brukt lang tid på å finne frem til alene.
Fritekst
Har du store mengder informasjon liggende i fritekstfelter? Informasjon som kunne gitt stor verdi, dersom dette var strukturert på en slik måte at det var mulig å ta ut læring, med tanke på fremtidige situasjoner? Det kan være beskrivelse av hendelser, kommentarfelt i forbindelse med fremdriftsrapportering eller lignende. Da kan også språkmodell være løsningen for deg. Disse har evnen til å kategorisere, og strukturere fritekst på en veldig god måte. Også når friteksten har av skrivefeil eller er skrevet på ulike språk.
PDF-lesing
LLM-er kan kombineres med computer vision som gjør skrift fra pdf-er, bilder og lignende om til tekst. Fremgangen her har også vært veldig stor de siste årene, noe vi testet ved å prøve å tolke skriften til den med minst pen håndskrift i teamet vårt. Modellen klarte å forstå noe som tidligere var reservert for synske og skriveren selv!
Veien videre
LLM-er er ikke en magisk løsning på alt, og teknologien har sine svakheter, men brukt på rett måte kan den gi stor nytte. Fremgangen i dette feltet er også så enorm at forskjellen på kvaliteten på modellene nå og for to år siden, er som natt og dag. Det er vanskelig å se for seg hvordan teknologien vil se ut to år frem i tid fra nå!
Maskinlæring/Deep Learning
Maskinlæring, og den nyere mer kompliserte versjonen deep learning, er noen av de mer klassiske formene for Data Science. Her er det flere metoder og teknikker.
Overvåket læring (Supervised learning)
En metode kalles for «overvåket læring». Du gir en modell noe historisk data. Det kan være data fra 14 dager bakover i tid. La oss si vi prøver å forutse hva som skjedde i går ved å bare se på data for de 13 foregående dagene. Vi kan videre trene opp modellen til å gjøre prediksjoner på hva som vil skje under lignende forhold i fremtiden. Her ar vi allerede gjennomført noen prosjekter i Bouvet, hvor vi blant annet har sett på prediksjon av når maskiner vil slutte å fungere, slik at kunden kan gjøre vedlikehold og unngå nedetid. Vi har for eksempel også sett på prediksjon av temperatur i veien for å vurdere om man skal salte eller ikke.
Uovervåket læring (Unsupervised learning)
Den andre metoden er «uovervåket læring», hvor det ikke nødvendigvis er en fasit på hva som er "korrekt", men hvor man får informasjon fra generell data. Et eksempel er Netflix og hvordan de gir deg forslag til filmer de tror du vil like. De har brukt uovervåket læring til å gruppere deg og din filmsmak sammen med andre brukere som ser på lignende filmer. Har mange i din gruppe sett en film du ikke har sett, så kan du få skreddersydde anbefalinger for hva du kanskje vil like. Et annet bruksområde kan være spisset markedsføring mot kundegrupper som mest sannsynlig vil være interessert i en type produkt fremfor et annet.
Forsterkende læring (Reinforcement learning)
Siste metode er «forsterkende læring», hvor datamaskinen starter med begrenset forkunnskap om hva den holder på med. Ved å gi den poeng basert på hvor god jobben den gjør er, lærer datamaskinen hva som er rett og galt. Datamaskinen får plusspoeng hvis den gjør noe bra, og minuspoeng hvis den gjør noe dumt.
Det er egentlig sånn vi mennesker lærer nye ting. Læring starter ofte med at det er noe vi ikke kan, men gradvis forstår vi hva som er rett og hva som er galt. F.eks. hvis du eller en datamaskin skal lære å gå så gjør det vondt å falle (minuspoeng), men det føles bra å stå (plusspoeng) eller bevege seg fremover imens du står (masse plusspoeng). Gradvis etter mange, mange forsøk på å få høyere poengsum lærer datamaskinen seg å utføre oppgaven. Om det så er prediksjon, gåing eller sjakk. Fun fact: det er denne metoden som er brukt for å trene de beste moderne sjakk-robotene.
Så hva gjør vi nå?
Det store spørsmålet er jo nå hvordan går vi frem for å utnytte denne teknologien og mulighetene den gir? Er du for eksempel nysgjerrig på hvordan språkmodeller kan benyttes til å få et dypere forståelse i dine data? Da er et godt sted å starte er å ta en prat med oss i Bouvet! Vi har kunnskap og kompetanse om teknologien og dere har kunnskap om problemene dere forsøker å løse. Sammen kan vi komme frem til mange spennende problemstillinger og måter å bruke AI eller andre verktøy til å gjøre problemene lettere å håndtere. Kanskje vi til og med klarer å gi oss selv litt bakoversveis over hva vi får til?
Nysgjerrig? Send en melding til ingrid.froyland@bouvet.no, så får vi avtalt et møte for å snakke nærmere om det!
Bonus-AI-artikler-for-gøy
Det viktig å huske at selv om noen bruksområder for AI kan virke lite imponerende i dag, så er utviklingen så rask at i morgen kan det være helt andre muligheter som har oppstått sammenlignet med i dag.
AI er allerede i stand til å gjøre ting du kanskje ikke var klar over var mulig. Noen av favoritt-eksemplene mine er:
AI kan lage musikk kun basert på tekst og beskrivelse. Hør et eksempel her:
https://suno.com/song/093e95d7-1cb5-46b5-9342-39bc82621a7b
AI transkriberer norsk tale nesten like bra som mennesker:
https://www.tek.no/nyheter/nyhet/i/3ELqAq/ai-transkriberer-norsk-tale-nesten-like-godt-som-mennesker
Værmelding med høy presisjon utregnet på kort tid, noe meteorologer vanligvis bruker kjempestore datamaskiner over lang tid for å simulere:
https://deepmind.google/discover/blog/graphcast-ai-model-for-faster-and-more-accurate-global-weather-forecasting/
Lage 3D objekter/omgivelser fra et sett med bilder, eller til og med bare ett bilde! Kombiner dette med et VR-headset og du har mange muligheter:
https://alexyu.net/plenoxels/
Lage filmer på samme linje som AI har kunnet lage bilder:
https://openai.com/research/video-generation-models-as-world-simulators