Seadusloomes kasutatava tehisintellekti juriidika

Tehisintellekt siseneb üha enam seadusloomesse ja riigihaldusse, muutes tööprotsesse ja vastutust. See tekitab küsimusi autoriõiguse, vastutuse ja läbipaistvuse kohta. Õiguslikud raamid ei ole ühtlustatud ning praktikas ilmnevad riskid. Artikkel pakub ajaloolist konteksti ja analüüsi värsketest seadusettepanekutest. Toome soovitused seadusandjale, haldusasutustele ja parlamendijärelevalvele, et tagada seaduste õiguspärasus, usaldusväärsus ning demokraatlik kontroll, samuti selge vastutus ja inimlik järelevalve automaatotsustes, avaliku usalduse taastamine.

Seadusloomes kasutatava tehisintellekti juriidika

Ajalooline taust: inimeste kirjutatud seadustest automatiseeritud abivahenditeni

Seadusloomise praktika põhineb sajanditepikkusel traditsioonil, kus eelnõud ja õigusaktid valmistavad ette inimautorid parlamenditiimides, õiguskantslerites ja haldusametkondades. Alates 1990. aastatest tekkisid esimesed elektroonilised tööriistad vormistamiseks ja redigeerimiseks ning 2000. aastatel paranesid keeleanalüüsi võimekused. Viimase kümnendi jooksul on masinõppe ning suurte keelemudelite areng muutnud võimalikuks automaatse tekstigeneratsiooni ja mallide genereerimise, mida riigid hakivad katsetama eelnõude koostamisel, seaduste tõlkimisel ja õigusalaste kokkuvõtete tegemisel. Need tehnoloogiad ei asenda formaalset õigusloomet, kuid mõjutavad oluliselt tööprotsessi ja informatsiooni liikumist institutsioonide sees.

Rahvusvahelised ja riiklikud õigusraamistikud: mis on muutumas

Ülemaailmselt on ilmnemas kaks paralleelset suundumust: tehnoloogiat piiravad põhimõtted ning reguleeriv raamistik, mis määratleb avaliku sektori kasutuse. Rahvusvahelisel tasandil on OECD ja teised foorumid formuleerinud AI põhimõtteid, mis rõhutavad läbipaistvust ja inimkeskset lähenemist. Euroopas on ELi tehisintellekti regulatsioon (tuntud kui AI Act) läbinud põhjaliku läbirääkimise ning selle provisioonid käsitlevad avalikke sektoreid ja kõrge riskiga süsteeme, mis võivad mõjutada kodanike õigusi ja teenuste kättesaadavust. Samal ajal on tehnilise abi pakkujatele ning avalikule haldusele ilmunud suunised ja riskihindamise nõuded, mille järgi tuleb dokumenteerida mudelite testimised ja kasutusjuhtumid. Ameerika Ühendriikides on lähenemisviis olnud fragmentaarsem: föderaalsel ja osariigi tasandil on valminud mitmeid juhendeid ja soovitusi riskipõhiseks juhtimiseks, nagu NISTi raamistik ja valitsusasutuste suunised, kuid üleriigiline konkreetne seadus puudub.

Õiguslikud probleemid: autorsus, päritolu ja seaduse tõlgendamine

Kui algoritm koostab parlamendile esitatava eelnõu algteksti või pakub alternatiivset formulatsiooni, kerkivad esile küsimused teksti autorsusest ja selle tähendusest. Õigusaktide kehtivus ei sõltu tekstiloome mehhanismist, vaid seadusandlikust protseduurist: kui parlament või muu pädev organ hääletab teksti üle ja akti vastu võtab, on see õigusakt. Sellegipoolest mõjutab koostamisviis hilisemat tõlgendamist ja kohtupraktikat. Kohtud võivad pidada vähem usaldusväärseks või raskemini tõlgendatavaks sellist legislaalse ajalugu, millel puudub inimautorite selge motiivikirjeldus. See seab pressi dokumenteerida algoritmi panus, treeningandmete päritolu ja kasutatud kontrollimeetodid, et vältida eksitavaid eeldusi seadusandja tahte kohta.

Halduse ja vastutuse küsimused: kui automatiseerimine ebaõnnestub

Avaliku sektori otsused, mille ettevalmistamisel on kasutatud algoritme (näiteks eelnõude korrektuur, sanktsioonide formulatsioon või kulukalkulatsioonid), võivad kanda olulisi ühiskondlikke tagajärgi. Seetõttu peab vastutus olema selgesti määratletud: kes vastutab eelnõu tehnilisi vigu põhjustanud automaatse lisandid? Kas vastutus lasub lõppvastuse kinnitajal, tehnilisel arendajal või hankemenetluse kaudu lepingus määratletud kolmandal osapoolel? Õiguslikud raamid, nagu haldusõigus ja lepingueelised, peavad sisaldama konkreetseid kohustusi testimiseks, auditeerimiseks ning tagavaramenetlusteks. Samuti on oluline sätestada inimliku järelevalve nõue—nii et lõplikud poliitilised otsused tehakse inimese poolt, kellel on pädevus ja vastutus tagajärgede eest.

Praktilised õigusloome- ja parlamenditavad: soovitused poliitikakujundajatele

Õiguslikult mõistlik ja demokraatlik lähenemine peab ühendama tehnilise riskihaldamise ja õiguskaitse põhimõtted. Soovitused hõlmavad järgmisi samme:

  • sätestada seadusandlikus praktikas nõue deklaratsioonile, kui eelnõu on koostatud või oluliselt muudetud automatiseeritud vahendite abil;

  • nõuda auditijälge ja dokumente treeningandmete päritolu ning mudeli testitulemustest, et toetada läbipaistvust ja järelevalvet;

  • kehtestada lepingutingimused avaliku sektori IT-hangetes, mis määravad vastutuse ja hoiavad ära sõltumatute auditite puudumise;

  • integreerida inim-in-the-loop põhimõte ning tagada, et õiguslikult tähtsate küsimuste puhul on alati vastuotsustav inimagent;

  • koolitada seadusandjaid ja ametnikke AI riskidest ning luua parlamendisisene järelevalvekomisjon tehnoloogia kasutuse regulaarseks läbivaatamiseks.

Järeldus: õiguskindlus ja demokraatlik usaldus tehnoloogiale tuginedes

Tehisintellekti kasutuselevõtt seadusloomes pakub efektiivsuse ja kättesaadavuse võimalusi, kuid samas seab proovile traditsioonilised vastutuse, tõlgenduse ja läbipaistvuse normid. Õigusloome peab reageerima selliselt, et säiliks kodanike usaldus ning tagatud oleks demokraatlik kontroll. See nõuab nii rahvusvahelist kooskõlastust põhimõtetes kui ka riiklikku seadusandlikku ja halduslikku detailide fikseerimist, mis kirjeldab, kuidas automatiseeritud tööriistu tohib kasutada, kuidas dokumenteerida nende mõju ning kes vastutab vigade korral. Ainult nii saab tehnoloogilisest innovatsioonist kasu, mis tugevdab, mitte ei õõnesta, õigusriigi aluspõhimõtteid.