Poslovno upravljanje povjerenjem, rizikom i sigurnošću u generičkoj AI
Za razliku od široke primjene modela generativne umjetne inteligencije u kojima do sada ne postoje nikakve naznake regulacije ili ograničenja pa se ukazuje na opasnosti njihove zloporabe u poslovnoj primjeni makar postoje naznake regulacije. Među najznačajnije rizike koje donosi generativna umjetne inteligencija potpredsjednica analitičkog odjela u Gartneru za blockchain, umjetnu inteligenciju i kibernetičku sigurnost Avivah Litan izdvaja izmišljotine ili „halucinacije“, deepfakes, problem privatnosti podataka, probleme s autorskim pravima i probleme kibernetičke sigurnosti.
Rizici
Izmišljotine, ili kako ih naziva i halucinacije, uključuju činjenične pogreške, neki su od najčešćih problema koji se već pojavljuju s generativnim AI chatbot rješenjima. Podaci o obuci mogu dovesti do pristranih, neutemeljenih ili pogrešnih odgovora, ali ih je teško uočiti, osobito jer su rješenja sve vjerodostojnija i na njih se sve više oslanja.
Generativna umjetna inteligencije može se koristiti i namjerno za stvaranje zlonamjernog sadržaja, odnosno deepfakes što predstavlja značajan generativni AI rizik. Te lažne slike, videozapisi i glasovne snimke korišteni su za napade na slavne osobe i političare, za stvaranje i širenje pogrešnih informacija, pa čak i za stvaranje lažnih računa ili preuzimanje i provaljivanje u postojeće legitimne račune.
Koristeći modele generativne umjetne inteligencije zaposlenici mogu lako izložiti osjetljive i vlasničke podatke poduzeća u interakciji s generativnim AI chatbot rješenjima. Te aplikacije mogu na neodređeno vrijeme pohranjivati informacije snimljene putem korisničkih unosa, pa čak i koristiti informacije za treniranje drugih modela – dodatno ugrožavajući povjerljivost. Takve informacije također mogu pasti u pogrešne ruke u slučaju proboja sigurnosti.
Kao jedan od ključnih problema generativne umjetne inteligencije ističe se i problem autorskih prava. Naime, generativni AI chatbotovi treniraju se na velikoj količini internetskih podataka koji mogu uključivati materijal zaštićen autorskim pravima. Kao rezultat toga, neki rezultati mogu kršiti zaštitu autorskih prava ili intelektualnog vlasništva (intellectual patents, IP). Bez referenci na izvore ili transparentnosti načina na koji se izlazni podaci generiraju, jedini način za ublažavanje tog rizika jest da korisnici pomno provjeravaju izlazne podatke kako bi bili sigurni da ne krše autorska prava ili prava intelektualne svojine.
Usto, uz napredniji društveni inženjering i prijetnje krađom identiteta, napadači bi mogli koristiti alate generativne umjetne inteligencije za lakše generiranje zlonamjernog koda. Dobavljači koji nude generativne temeljne modele umjetne inteligencije uvjeravaju kupce da obučavaju svoje modele da odbiju zlonamjerne cyber sigurnosne zahtjeve, međutim, oni korisnicima ne daju alate za učinkovitu reviziju svih sigurnosnih kontrola na mjestu.
Nužan AI TRiSM
Zbog takvih opasnosti koje donosi generativna umjetna inteligencija Litanom ukazuje kako postoji hitna potreba za upravljanjem povjerenjem, rizikom i sigurnošću u umjetnoj inteligenciji (AI trust, risk and security management, AI TRiSM) kako su u Gartneru definirali alate za upravljanje podacima i tijekovima procesa između korisnika i tvrtki koje ugošćuju generativne temeljne modele AI.
AI TRiSM bi trebao pomoći identificirati, nadzirati i smanjiti potencijalne rizike povezane s korištenjem AI tehnologije u organizacijama – uključujući buzzy generativne i adaptivne AI . Korištenjem tih alata organizacije bi mogle osigurati usklađenost sa svim relevantnim propisima i zakonima o privatnosti podataka.
Za sada na tržištu nema gotovih alata koji korisnicima daju sustavna jamstva privatnosti ili učinkovito filtriranje sadržaja njihovih angažmana s ovim modelima, na primjer, filtriranje činjeničnih pogrešaka, halucinacija, materijala zaštićenih autorskim pravima ili povjerljivih informacija.
Programeri umjetne inteligencije moraju hitno surađivati s kreatorima politika, uključujući nova regulatorna tijela koja bi se mogla pojaviti, kako bi uspostavili politike i prakse za generativni nadzor umjetne inteligencije i upravljanje rizikom.
Modeli korištenja
Postoje dva opća pristupa korištenju ChatGPT-a i sličnih aplikacija. Korištenje modela izvan okvira koristi ove usluge kakve jesu, bez izravne prilagodbe. Pristup brzog inženjeringa koristi alate za stvaranje, podešavanje i procjenu brzih ulaza i izlaza.
Za korištenje izvan okvira, organizacije moraju implementirati ručne preglede svih izlaznih podataka modela kako bi otkrile netočne, dezinformirane ili pristrane rezultate. Uspostavite okvir upravljanja i usklađenosti za korporativnu upotrebu ovih rješenja, uključujući jasne politike koje zabranjuju zaposlenicima postavljanje pitanja koja otkrivaju osjetljive organizacijske ili osobne podatke.
Organizacije bi trebale pratiti nedozvoljene upotrebe ChatGPT-a i sličnih rješenja s postojećim sigurnosnim kontrolama i nadzornim pločama kako bi uhvatile kršenja pravila. Na primjer, vatrozidi mogu blokirati pristup korisnicima poduzeća, sigurnosni podaci i sustavi za upravljanje događajima mogu nadzirati zapisnike događaja radi kršenja, a sigurni web pristupnici mogu nadzirati nedopuštene API pozive.
Za brzu inženjersku upotrebu primjenjuju se sve ove mjere za smanjenje rizika. Osim toga, potrebno je poduzeti korake za zaštitu internih i drugih osjetljivih podataka koji se koriste za projektiranje upita na infrastrukturi treće strane. Stvorite i pohranite projektirane upite kao nepromjenjiva sredstva.
Ta sredstva mogu predstavljati provjereno projektirane upite koji se mogu sigurno koristiti. Oni također mogu predstavljati korpus fino podešenih i visoko razvijenih upita koji se mogu lakše ponovno koristiti, dijeliti ili prodavati.
Podijeli:
Source: bug.hr