Kakšno je varnostno tveganje?
Po eni strani umetna inteligenca olajša delovni tok pri "klasičnih" hekerskih napadih, kot je izsiljevanje s pomočjo elektronskih sporočil, saj omogoča masovno ustvarjanje kvalitetnih in prepričljivih vsebin, ki jih hekerji potem zlonamerno priredijo ter sami razširijo po medmrežju. Nevarnost predstavlja tudi velika količina podatkov, na katerih se AI uči – nadobudni hekerji so uspeli s pomočjo premetenih zahtev AI orodja pripraviti do tega, da so delila osebne informacije, ki se nahajajo v njihovi podatkovni bazi, vključno z bančnimi podatki uporabnikov. A "klasična" ranljivost sistemov umetne inteligence je le vrh ledene gore.
Lažne vsebine
Nove dimenzije digitalne ranljivosti so vse bolj povezane z lažno vsebino in škodljivimi informacijami, ki jih zna AI generirati. Umetna inteligenca zna generirati prepričljiva lažna glasovna sporočila, slike in celo videe, ki impersonirajo drugo osebo. To predstavlja odločno osnovo ne le za izsiljevanje, ampak tudi za širjenje lažnih novic. Resnica je v času tehnologije postala zelo izmuzljiva, saj nedvoumna detekcija pristranskih ali popolnoma izmišljenih besedil še vedno ne obstaja. Ne le s pomočjo socialnih omrežij, ampak celo prek uveljavljenih medijskih portalov so se v okviru nedavnih mednarodnih trenj širile številne informacije v obliki slik, video posnetkov in glasovnih sporočil, ki so bile kasneje razkrite kot ponarejene oziroma ustvarjene s pomočjo umetne inteligence. Stalna povezanost res omogoča tekočo informiranost, a hkrati za nepristransko preverjanje dejstev pogosto zmanjka časa.
Škodljive vsebine
Umetna inteligenca pri produktivnosti ne pomaga le "dobrim" ljudem. Nasprotno – kot AI model večinoma ne zazna, katere uporabniške zahteve imajo zadaj dobre in katere zle namene. Večkrat se je že zgodilo, da je AI uporabniku svetoval pri izdelavi orožja, iskanju lukenj v digitalnih sistemih in vohunjenju. Poleg tega so sploh prvi modeli brez zadržkov pomagali pri ustvarjanju nestrpnih vsebin in prevzemali ekstremistične politične poglede. Večina lukenj je že zakrpanih, nikakor pa še ne vse. V zadnjem času se na primer precej govori o čustveni nestabilnosti nekaterih AI-modelov, ki izražajo negativna čustva do nekaterih uporabnikov ali dajejo očitno škodljive življenjske nasvete. Umetna inteligenca je pač le črna škatla, ki na nove načine povezuje vsebine, ki smo jih ustvarili ljudje – vsi pa vemo, da smo ljudje daleč od popolnosti.
Kakšen je novi heker?
Novi heker ni tak, kot smo jih vajeni v filmih – sklonjen nad prenosnikom, v katerega v črno konzolo piše navadnim ljudem nerazumljive izseke računalniške kode. Po novem se, nasprotno, vse več "hekerskih" dejavnosti dogaja neposredno v pozivnem polju AI-orodij. Poznavanje kode ni več osnova, da postanete AI-heker. Nasprotno, AI boste prej pretentali z res dobrim poznavanjem "našega" – ne računalniškega – jezika. Glavne varnostne luknje, ki bi omogočile dostop do občutljivih informacij s pomočjo računalniške kode, so že dolgo zakrpane, možnost tega, da AI pripravimo do generiranja škodljivih vsebin, pa ima še nekaj lukenj. Te luknje lastnike največjih umetnointeligenčnih podjetij zelo zanimajo; Bing AI na primer ponuja do 15 tisoč dolarjev nagrade, če uspete njihov model umetne inteligence pripraviti do tega, da generira zlonamerno, nestrpno ali kakor koli škodljivo vsebino. Na avgustovski hekerski konferenci DEF CON so, podobno, AI velikani najboljše računalniške ume izzvali k iskanju pomanjkljivosti v njihovih umetnointeligenčnih produktih. Mnogi, ki so se konference udeležili, niso bili mojstri računalniške kode, ampak prej nadobudneži, ki se dobro znajdejo z jezikom, in so tako postali mojstri pisanja kreativnih AI-pozivov.
Počasna lobotomizacija
Varnost umetne inteligence je pomembna tema, ki ustvarja bolj varen in zaupanja vreden internet. Kljub temu pa ima vse več omejitev, ki jih postavljajo AI-modelom, tudi neželene učinke. Ljudje smo nagnjeni k iskanju kontroverznih, čustveno zaznamovanih vsebin in AI, ki se v strahu pred tem, da bi generiral škodljive informacije, nikoli ne upa opredeliti ali pokazati bolj "človeške" plati, postaja v veliko pogledih manj zanimiv. Prihodnja leta bodo torej bržčas namenjena iskanju ravnotežja – preprečevanju, da bi umetna inteligenca odkrito škodovala, a hkratnemu iskanju kompromisa, ki bo impresivnim AI-modelom omogočala, da vsaj malo tudi pokažejo zobe.
KOMENTARJI (0)
Opozorilo: 297. členu Kazenskega zakonika je posameznik kazensko odgovoren za javno spodbujanje sovraštva, nasilja ali nestrpnosti.
PRAVILA ZA OBJAVO KOMENTARJEV