Privatumo apsauga dirbtinio intelekto amžiuje: teisinė EŽTK 8 straipsnio laikymosi perspektyva
Dirbtiniam intelektui (DI) vis labiau integruojantis į pramonės šakas ir kasdienį gyvenimą, vis dažniau nerimaujama dėl privatumo pažeidimų pagal Europos žmogaus teisių konvencijos (EŽTK) 8 straipsnį. Dirbtinio intelekto technologijos - nuo veidų atpažinimo iki duomenimis pagrįstų algoritmų - apdoroja didžiulius asmeninės informacijos kiekius, dažnai nepakankamai atsižvelgdamos į privatumo teises, kurias jos gali pažeisti. Daugelio dirbtinio intelekto sistemų nesugebėjimas laikytis šių svarbių teisinių pagrindų greitai tampa svarbia problema, kurios vyriausybės ir įmonės nebegali sau leisti ignoruoti.
8 straipsnio nesilaikymo pasekmės tampa vis aiškesnės: duomenų saugumo pažeidimai, šališkas sprendimų priėmimas ir nekontroliuojama stebėjimo praktika kelia grėsmę asmenų privatumui. Spartėjant dirbtinio intelekto diegimui, įtampa tarp technologinių inovacijų naudos ir neigiamo poveikio asmens teisėms nebėra hipotetinis rūpestis, o vis didėjanti realybė.
Kas yra 8 straipsnis?
Europos žmogaus teisių konvencijos 8 straipsnyje garantuojama teisė į privataus ir šeimos gyvenimo, būsto ir susirašinėjimo gerbimą. Jame teigiama, kad "kiekvienas turi teisę į tai, kad būtų gerbiamas jo privatus ir šeimos gyvenimas, būstas ir susirašinėjimas", o bet koks kišimasis į šią teisę turi būti pagrįstas įstatymu ir būtinas demokratinėje visuomenėje.
Iš esmės 8 straipsnyje numatyta asmenų teisė į privatumą, užtikrinant, kad jų asmeninė informacija, ryšiai ir veikla būtų apsaugoti nuo nepagrįsto sekimo ar kišimosi.
Svarbu pažymėti, kad 8 straipsnis yra kvalifikuota teisė, o tai reiškia, kad asmenys neturi absoliučios teisės į privatumą ir tam tikromis aplinkybėmis kišimasis į privatumą gali būti teisiškai pateisinamas, jei kišamasi siekiant teisėto tikslo, pavyzdžiui, visuomenės saugumo.
Dirbtinio intelekto spartinimas ir teisė į privatumą: Didėjantis susirūpinimas
Kadangi dirbtinio intelekto technologijos toliau vystosi ir integruojasi į beveik visus sektorius, pavojus asmens privatumui pagal 8 straipsnį tapo kaip niekada aktualus. Dabar dirbtinio intelekto sistemos gali tvarkyti didelius asmens duomenų kiekius su minimalia priežiūra, dažnai apeidamos pagrindines privatumo apsaugos priemones, kurioms užtikrinti buvo sukurtas 8 straipsnis.
8 straipsnyje iš esmės garantuojama teisė į privatumą, kuri apima mūsų asmeninę informaciją, ryšius ir net veiklą, kuria užsiimame. Tačiau sparčiai populiarėjantis dirbtinis intelektas, gebantis stebėti, analizuoti ir prognozuoti žmogaus elgesį, kelia tiesioginį iššūkį šiai apsaugai.
Nesvarbu, ar tai būtų biometrinis atpažinimas, vietos stebėjimas, ar socialinės žiniasklaidos duomenų naudojimas, dirbtinio intelekto galimybės kištis į privatų asmenų gyvenimą labai išaugo. Tačiau iš tiesų nerimą kelia tai, kaip mažai reglamentavimo ar skaidrumo, kad būtų užtikrinta, jog šios technologijos atitiktų 8 straipsnį.
Pavyzdžiui, vis dažniau naudojama veido atpažinimo technologija. Nors ji reklamuojama kaip visuomenės saugumo priemonė, dažnai ji įgyvendinama su minimaliu visuomenės informuotumu ar sutikimu, nekalbant jau apie griežtas apsaugos priemones, kurių reikalaujama pagal 8 straipsnį. Viso pasaulio miestuose žmonės yra nuolat stebimi - stebimi per viešąsias kameras, realiuoju laiku skenuojami oro uostuose ir net atpažįstami be jų žinios minioje.
Šiomis sistemomis surinktus duomenis galima saugoti, analizuoti ir naudoti toli gražu ne pagal pirminį tikslą.
Pilietinių laisvių erozija
Dirbtinio intelekto technologijos dažnai naudojamos stebėjimo operacijose, kurios kelia tiesioginę grėsmę privatumui. Kai kuriais atvejais dirbtinis intelektas naudojamas stebėti privačią žmonių veiklą - naršymo internete įpročius, mobiliojo telefono buvimo vietos duomenis ar net socialinės žiniasklaidos turinį - be tinkamo sutikimo.
Ši nuolatinė ir nuolatinė stebėsena gali sukelti laisvės ir savarankiškumo suvaržymą. Pati mintis, kad dirbtinio intelekto varomos sistemos gali atidžiai stebėti kiekvieną jūsų žingsnį, rinkti duomenis apie jūsų asmeninius įpročius ir mintis be jokio aiškaus individualios kontrolės ar teisių gynimo mechanizmo, yra ne tik privatumo pažeidimas, bet ir pavojinga pilietinių laisvių erozija.
Algoritminis šališkumas - dar viena sritis, kurioje susikerta dirbtinis intelektas ir 8 straipsnis. Dirbtinio intelekto sistemos dažnai kuriamos remiantis duomenimis, kurie gali būti šališki, nesvarbu, ar tai būtų susiję su rase, lytimi, ar socialine ir ekonomine padėtimi. Jei dirbtinio intelekto sistemos naudoja šiuos šališkus duomenis priimdamos sprendimus apie asmenis, pavyzdžiui, tokiose srityse kaip įdarbinimas ar kredito vertinimas, jos ne tik pažeidžia teisę į privatumą, bet ir diskriminuoja asmenis dėl veiksnių, kurių negali kontroliuoti.
Taip taikomos tokios sistemos gali apsunkinti nepalankioje padėtyje esančių grupių galimybes apsaugoti savo privatumą, jau nekalbant apie sąžiningą elgesį visuomenėje.
Naujovių ir pagrindinių teisių pusiausvyros užtikrinimas - neveiklumo pasekmės
Didžiausią nerimą kelia tai, kad daugelis įmonių ir vyriausybių skuba diegti šias technologijas tinkamai neatsižvelgdamos į privatumo teises. Esant minimaliam reguliavimui ir nenuosekliai priežiūrai, dirbtinio intelekto diegimas vyksta sparčiai, todėl žmonių privatumas tampa pažeidžiamas.
Dirbtinis intelektas kuriamas ir diegiamas greičiau, nei privatumo įstatymai gali suspėti, todėl asmenų teisės pagal 8 straipsnį yra labiau pažeidžiamos nei bet kada anksčiau.
Ši teisės sritis kol kas iš esmės dar nėra ištirta. Tačiau dirbtiniam intelektui vis labiau skverbiantis į kasdienį gyvenimą, vyriausybės ir įmonės neturės kito pasirinkimo, kaip tik pripažinti neišvengiamą teisinę riziką, kuri kils dėl 8 straipsnio nesilaikymo.