Etter hvert som KI utvikler seg, spiller vi alle en avgjørende rolle i å muliggjøre de positive effektene KI kan ha for organisasjoner og samfunn verden rundt. Det er derfor vi fokuserer på å hjelpe kunder med å bruke og bygge KI som er pålitelig, altså KI som er sikker, trygg og privat.
I Microsoft har vi forpliktet oss til å sikre pålitelig KI – Trustworthy AI – og bygger derfor industriledende støtte-teknologi for dette. Våre forpliktelser og evner går hånd i hånd for å sikre at våre kunder og utviklere er beskyttet i alle lag.
For å bygge videre på disse forpliktelsene, annonserer vi i dag nye produktegenskaper som styrker sikring, trygghet og personvern i KI-systemer.
Sikkerhet. Sikkerhet er vår øverste prioritet i Microsoft. Satsingen Secure Future Initiative (SFI) understreker forpliktelsene og ansvaret som hele selskapet føler for at våre kunder skal være sikre. Denne uken annonserte vi vår første SFI Progress Report, med oppdateringer innen alt fra kultur, styring, teknologi til drift.
Dette leverer på løftet vårt om å prioritere sikkerhet fremfor alt annet og styres av tre prinsipper: Sikker utforming, sikre standarder og sikker drift. I tillegg til våre førstepartsprodukter, Microsoft Defender og Purview, kommer våre KI-tjenester med grunnleggende sikkerhetsmekanismer, slik som innebygde funksjoner som skal forhindre såkalte innbruddskommandoer – prompt injections – og brudd på opphavsrett.
Vi bygger videre på dette, når vi i dag annonserer to nye kapabiliteter:
- Microsoft 365 Copilot vil tilby transparente web-søk for å hjelpe administratorer og brukere å bedre forstå hvordan web-søk beriker Copilot sin respons. Dette lanseres snart.
Våre sikkerhetsfunksjoner er allerede i bruk blant våre kunder. Cummins, et 105 år gammelt selskap kjent for motorproduksjon og utvikling av ren energi-teknologi, så mot Microsoft Purview for å styrke datasikkerheten og styringen ved å automatisere klassifisering og merking av data.
EPAM Systems, et selskap som jobber med programvareutvikling og forretningskonsultasjon, rullet ut Copilot for Microsoft 365 til 300 brukere på grunn av databeskyttelsen som Microsoft tilbyr.
– Vi var mye mer fortrolige med Copilot for Microsoft 365, sammenlignet med andre store språkmodeller (LLM-er), fordi vi visste at de samme retningslinjene for informasjons- og databeskyttelse som vi allerede har konfigurert i Microsoft Purview, også gjaldt for Copilot, fortalte J.T Sodano, IT-seniordirektør i selskapet.
Trygghet. Microsofts omfattende prinsipper for ansvarlig kunstig intelligens – Responsible AI principles – omfatter både sikkerhet og personvern. Prinsippene ble etablert i 2018, og fortsetter å vise vei for hvordan vi skal bygge og rulle ut kunstig intelligens på en trygg måte på tvers av hele selskapet.
I praksis betyr dette å bygge, teste og monitorere systemer på en skikkelig måte slik at vi unngår uønsket oppførsel som skadelig innhold, skjevheter, misbruk eller annen utilsiktet risiko.
Gjennom årene har vi gjort betydelige investeringer i å bygge ut helt nødvendige strukturer for styring, struktur, retningslinjer, verktøy og prosesser for å ivareta disse prinsippene og for å bygge og rulle ut kunstig intelligens på en trygg måte.
I Microsoft er vi forpliktet til å dele hva vi lærer på denne reisen i å opprettholde ansvarlige KI-prinsipper med våre kunder. Vi bruker våre egne beste praksiser og erfaringer for å kunne tilby både mennesker og organisasjoner verktøy og kapabiliteter for å bygge KI-applikasjoner som deler den samme høye standarden vi streber etter.
I dag deler vi flere nyheter som skal hjelpe våre kunder i å forfølge KI-gevinster, samtidig som de reduserer risiko:
- Muligheter for korrigering i Microsoft Azure AI Content Safety sin funksjon for groundedness detection. Dette bidrar til å løse problemer med hallusinering i sanntid, før brukere oppdager dem.
- Embedded Content Safety, noe som tillater brukere å bygge inn Azure AI Content Safety i ulike enheter. Dette er viktig i situasjoner hvor enheters tilgang til skyen enten er ustabil eller utilgjengelig.
- Nye evalueringer i Azure AI Studio som skal hjelpe kunder å vurdere kvalitet og relevans til et output – og hvor ofte KI-applikasjonen deres produserer beskyttet materiale.
- Protected Material Detection for Code er nå tilgjengelig som forhåndsvisning i Azure AI Content Safety. Dette skal bidra til å oppdage tidligere eksisterende innhold og kode. Funksjonen gjør at utviklere kan utforske offentlig tilgjengelig kode i GitHub-depoter, og på denne måten fremme samarbeid og åpenhet, samtidig som det muliggjør mer informerte kodebeslutninger.
Det er fantastisk å se hvordan kunder på tvers av ulike industrier allerede bruker Microsoft-løsninger for å bygge sikrere og mer pålitelige KI-applikasjoner.
Et eksempel er Unity, en plattform for 3D-spill, som brukte Microsoft Azure OpenAI Service for å bygge Muse Chat, en KI-assistent som gjør spillutvikling enklere. Muse Chat bruker modeller for innholdsfiltrering i Azure AI Content Safety for å sørge for ansvarlig bruk av programvaren.
ASOS, en britisk moteforhandler med opp mot 900 ulike merkepartnere, brukte de samme innebygde innholdsfiltrene i Azure AI Content Safety for å gi brukerne en best mulig opplevelse i en KI-app som foreslår nye antrekk og stiler.
Vi ser denne effekten i utdanning også. New York City Public Schools samarbeidet med Microsoft for å utvikle et chat-system som er trygt og passende i en utdanningskontekst. Dette er de nå i ferd med å pilotere i utvalgte skoler.
Noe tilsvarende ble gjort hos South Australia Department for Education. De tok generativ KI inn i klasserommet med edChat – et system som lener seg på den samme infrastrukturen som eksemplet over – for å sikre trygg bruk blant både elever og lærere.
Personvern. Data er grunnlaget bak kunstig intelligens, og Microsofts prioritet er å sikre at kundedata beskyttes og er i samsvar med våre prinsipper for personvern. Disse inkluderer brukerkontroll, transparens – samt juridiske og regulatoriske hensyn.
For å bygge videre på dette, annonserer vi i dag:
- Confidential inferencing i forhåndsvisning i vår Azure OpenAI Service Whisper-modell. Ved hjelp av dette kan kunder utvikle generative KI-applikasjoner som støtter ende-til-ende-personvern som kan verifiseres. Confidential inferencing sørger for at sensitive kundedata forblir sikkert og privat under inferensprosessen – altså når en trent KI-modell gjør prediksjoner eller tar avgjørelser basert på nye data. Dette er særlig viktig i industrier som opplever stor grad av regulering, som helse, finans, handel, produksjon og energi.
- Generell tilgjengelighet av Azure Confidential VM-er med NVIDIA H100 Tensor Core GPU-er, som tillater kunder å sikre dataene direkte på GPU-en. Dette bygger på våre løsninger for konfidensiell databehandling, som igjen sørger for at kundedata forblir kryptert og beskyttet i et sikkert miljø. På denne måten er det ingen som får tilgang til informasjon eller systemer uten tillatelse.
- Azure OpenAI Data Zones for EU og USA kommer snart. Dette skal bygge på eksisterende data residency, levert av Azure OpenAI Service, slik at det blir enklere å håndtere lagring og prosessering av data i forbindelse med generative KI-applikasjoner. Denne nye funksjonaliteten gir kunder fleksibilitet til å skalere generative KI-applikasjoner på tvers av alle Azure-regioner i et geografisk avgrenset område – samtidig som det gir dem full kontroll over at prosessering og lagring av data skjer i EU eller USA.
Vi har sett en økende interesse blant kunder for konfidensiell databehandling og mange er begeistret for konfidensielle GPU-er. Dette inkluderer produkter fra sikkerhetsleverandøren F5. De bruker Azure Confidential VM-er med NVIDIA H100 Tensor Core GPU-er for å bygge avanserte løsninger for sikkerhet – ved hjelp av kunstig intelligens. Samtidig sørger de for at dataene modellene analyserer forblir konfidensielle.
På samme måte har det multinasjonale bankselskapet Royal Bank of Canada (RBC) integrert Azure sine løsninger for konfidensiell databehandling i sine egne plattformer. Dette bruker de til å analysere krypterte data, samtidig som de ivaretar kunders personvern. Nå som Azure Confidential VM-er med NVIDIA H100 Tensor Core GPU-er blir allment tilgjengelig, kan RBC bruke disse avanserte KI-verktøyene for å jobbe mer effektivt med å utvikle kraftigere KI-modeller.
Oppnå mer med pålitelig KI
Vi både trenger og forventer KI vi kan stole på. Vi har sett hva som er mulig når mennesker gis muligheten til å bruke KI på en pålitelig måte, fra å berike ansattes opplevelser og omforme forretningsprosesser – til å gjenoppfinne kundeengasjement og finne nye løsninger for folk flests hverdag.
Med nye kapabiliteter som forbedrer sikkerhet, trygghet og personvern, fortsetter vi med å sette kunder i stand til å bruke og bygge pålitelige KI-løsninger som hjelper hver eneste person og hver eneste organisasjon på planeten til å oppnå mer.
Helt til slutt: Pålitelig KI omfatter alt vi gjør i Microsoft. Det er helt essensielt i vårt arbeid med å utvide muligheter, opparbeide tillit, beskytte grunnleggende rettigheter og sørge for fremskritt innen bærekraft i alt vi gjør.