De fleste har fått med seg innen nå at kunstig intelligens (AI) har tatt mange bransjer med storm. Alle fra grafiske designere til advokater og dataingeniører er ikke bare kjent med de nyeste systemene, men bruker dem nå aktivt i hverdagen. Såpass aktivt at en tredjedel av de spurte i en ny undersøkelse fra PwC oppgir å være redd for å miste jobben sin til teknologien. Til og med de som utvikler teknologien, ber nå om at utviklingen stoppes slik at resten av verden kan forstå hva det er som skjer.
Frykten er kanskje ikke helt uberettiget, da Goldman Sachs anslår at to tredjedeler av dagens jobber i alle fall delvis kan automatiseres med den nye teknologien. For å unngå å bli erstattet, må derfor mange forvente å ta del i den store omstillingen vi ser nå. Uansett hva du gjør på dagtid, kan vi derfor med høy sikkerhet si at AI kommer inn i verktøykassen din. Da kommer spørsmål om rettigheter og plikter fort inn i bildet.
Selv om din planlagte bruk av AI vil være «lavrisiko» etter Artificial Intelligence Act (AIA), er regelverket du blir nødt til å følge fremdeles omfattende. Blir utkastet vedtatt, vil forordningen være på lengde med GDPR, som altså vil gjelde i tillegg.
Mens vi venter på nytt regelverk å forholde oss til, renner det inn med spørsmål til både oss om hvordan bruke AI i tråd med reglene som allerede finnes. Noen gjengangere er:
Dette lurte det italienske datatilsynet også på. Mange av problemstillingene som oppstår i møtet med AI, handler om personvern. De som driver AI-modellene har plikter etter personvernregelverket, og vi alle har rettigheter som personer. En virksomhet som bruker ChatGPT har en grad av selvstendig ansvar for hvordan personopplysningene behandles når de bruker AI-tjenesten. GDPR krever blant annet at den som behandler personopplysninger, kan forklare hvor de er hentet inn, hvordan de er behandlet, og hvilken oppgave som gjør det strengt nødvendig å behandle dem. Spesielt her ser vi at bruk av AI kan være utfordrende. Vet du hva som skjer med personopplysninger du deler med AI-modellene du bruker?
Grensen mellom når ansvaret ligger på AI-leverandøren og når det ligger på AI-brukeren, går i dag etter de gamle reglene om erstatning. Vi alle må derfor anvende erstatningsregler som rett og slett ikke er skapt med AI i tankene. OpenAI har forsøkt å skrive fra seg alt ansvar i brukervilkårene til ChatGPT [OpenAI, «terms of use», pkt. 7 Indemnification] men også etter gjeldende regelverk skal det veldig mye til før en leverandør av AI-tjenester kan bli ansvarlig for skade som er forårsaket av tjenester som er utviklet ved hjelp av AI. Særlig IT-virksomheter som bruker tjenester som Copilot, bør være oppmerksomme på dette.
I Norge sier vi i korte trekk at når varer og tjenester ikke er av «alminnelig god» kvalitet, er den mangelfull. Her gjelder kontraktsretten, som har grunnprinsipper som har eksistert siden antikken. Den nye digitalytelsesloven er til noe hjelp, men gjelder ikke hvis du kjøper tjenester som bedrift. Hvor dårlige svar må en AI-modell gi før du krever pengene tilbake?
Reglene for opphavsrett, eller «copyright» som de sier i utlandet, er også under press. For når, og eventuelt hvordan, skal man kunne hevde at man har skapt noe ved å be en AI-generator lage noe? Er det mulig å eie slike bilder, musikkstykker, tekst eller filmer, og hvem eier det i så fall? Nylig kunne man lese om en sak fra USA hvor en skaper av en tegneserie ikke fikk rettighetene til illustrasjonene i tegneserien fordi de var skapt ved hjelp av AI. Etter hvert som AI får mer plass i kreative yrker forventer vi å se en rettslig avklaring, men akkurat nå strides de lærde.
Datatilsynene i Italia, Østerrike og Frankrike har allerede slått ned på leverandører av AI-tjenester. Italienernes vedtak mot OpenAI tidligere i våres skapte overskrifter da de satte en stopp for bruk av ChatGPT i landet. Nå er tjenesten oppe og går igjen for italienerne, men det er neppe den første gangen vi ser rettslige skritt tatt mot populære AI-tjenester. Datatilsynet oppgir at de følger med, og at jobbes med GDPR og AI i en arbeidsgruppe på europeisk nivå.
På EU-nivå jobbes det også med en AI-forordning som skal sørge for at teknologien fortsetter å utvikle seg, så lenge det ikke skjer på bekostning av rettighetene våre. Den såkalte «Artificial Intelligence Act» (AIA) er en av et helt sett med regelverk som skal sikre dette, og beskrives som «den første AI-loven».
Utkastet til AIA deler bruken av AI inn i følgende risikokategorier:
Selv om din planlagte bruk av AI vil være «lavrisiko» etter AIA, er regelverket du blir nødt til å følge fremdeles omfattende. Blir utkastet vedtatt, vil forordningen være på lengde med GDPR, som altså vil gjelde i tillegg. Dette kan virke omfattende, men kanskje det likevel er bedre enn at teknologien begynner å kontrollere oss mennesker. De fleste vil nok i alle fall foretrekke at det er omvendt.
Vi må med andre ord aldri lete etter de juridiske problemstillingene, for de får vi servert. Det er derimot opp til oss å finne svarene på spørsmålene deres i et evig skiftende juridisk bilde.
Oppgavene vi har møtt på så langt kan variere i vanskelighetsgrad, men blir aldri kjedelige.