To bølger av ansvarlig AI – først kom styring, nå kommer kompetansen
Lyse har alltid hatt et tydelig mål – å skape nye muligheter basert på egen virksomhet. Ny teknologi og data har lenge vært en del av dette. I alt de gjør, ligger verdiene i bunn: lagspiller, modig, tydelig og ansvarlig.
– Som en del av satsingen på datavitenskap ble det tilbake i 2019 etablert flere rammeverk for å sikre at vi forvalter teknologi på en ansvarlig måte og i tråd med konsernstrategien. Et sentralt resultat av dette arbeidet var retningslinjen «Etisk bruk av algoritmer og kunstig intelligens i Lyse-konsernet», som ble forankret i konsernledelsen i 2020, forteller IT-direktør Øyvind Feed i Lyse AS.
Da ChatGPT ble lansert høsten 2022, gjennomførte Lyse en risikovurdering i tråd med denne retningslinjen. Vurderingen ble startpunktet for etableringen av AI-rådet i 2023, opprettet av konsernledelsen for å sikre at Lyse tar i bruk kunstig intelligens på en trygg og ansvarlig måte. Samtidig skulle rådet bidra til å bygge kompetanse og utforske nye muligheter – med en forventning om at volumet av AI-tjenester ville øke i takt med at teknologien gikk fra å produsere prediksjoner til å generere faktiske objekter og innhold.
– Siden oppstarten har AI-rådet behandlet 68 ulike bruksscenarioer. Rådet vurderer forslag fortløpende, setter etiske rammer og bygger felles praksis for bruk av AI. Slik har mange små, konkrete tiltak blitt tatt i bruk i hverdagen – i kundeservice, fakturabehandling og arbeidsstøtte. Mer komplekse områder som kraftmarked og nettdrift har blitt faset inn gradvis og kontrollert over tid, fortsetter han.
Lyse bygger videre på denne plattformen. Når mer avanserte AI-verktøy nå tas i bruk for å øke tempo og kvalitet i utvikling og drift.
Prinsippene fra første bølge står fast: menneskelig tilsyn, ansvar, etterprøvbarhet og tydelige grenser.
I Lyse Produksjon brukes nå AI sammen med optimeringsmodeller for å styre kraftproduksjonen best mulig.
– Etter hvert som systemene blir mer automatiserte, vil mennesker fortsatt ha ansvaret for å bygge, trene og følge opp løsningene, sier Feed.
– Et annet godt eksempel er datterselskapet Lnett. Konsernets infrastrukturselskap har tatt AI i bruk i planleggingen av vedlikehold og utbygging. Med millioner av bilder som grunnlag tolker systemene terreng og installasjoner, og foreslår blant annet hvor trestolper bør brukes – og hvor de bør unngås, fortsetter han.
Lyse praktiserer ansvarlig AI gjennom jevnlige oppdateringer av etiske retningslinjer og klare forbuds- og grenseområder. Det betyr blant annet varsomhet ved møtetranskribering og nei til analyse av kollegaer.
Nå forbereder Lyse seg på neste bølge. AI-agenter vil endre hvordan kunder møtes digitalt – og hvordan relasjoner bygges fremover.