Umelá inteligencia

Publikované: 17. 09. 2025, čítané: 134 krát
 

JUDr. Peter Šufliarsky, prokurátor odboru legislatívy, stratégie a ústavného práva

                                                    U m e l á  i n t e l i g e n c i a

1. Umelá inteligencia, jej všeobecná charakteristika a inštitucionálny význam

Myšlienku umelej inteligencie (ďalej len „AI“)načrtol prvýkrát Ramon Llull, katalánsky filozof, básnik, mystik, alchymista a františkánsky terciár, ktorý pôsobil ako misionár medzi moslimami už v roku 1308. Vo svojom diele Ars magna (tzv. llullovskom umení) sa pokúsil reprezentovať najvyššie vecné a metodické pojmy pomocou umelých symbolov (písmen, figúr a ďalších) a veril, že tým sa mu podarí z nich odvodiť všetky ostatné pravdy a názorne reprezentovať ich súvislosti. Činnosť Llullovho „stroja pravdy“ spočívala v mechanickom otáčaní koncentrických kruhov. Na každom kruhu bolo napísaných deväť všeobecných pojmov, vyjadrených výrazmi napríklad „nebo“, „boh“, „človek“, „cnosť“, „pravda“, ktoré podľa Llullovho názoru zahrnovali celú oblasť poznania. Pri otáčaní kruhov vychádzali rozličné kombinácie týchto pojmov, ktoré Llull pokladal za nové pravdy. Takýmto spôsobom chcel dokázať všetky pravdy kresťanstva.

AI je z vedeckého hľadiska označovaná ako inteligencia, ktorú prejavujú stroje. Pán Albert Eistein (* 14. marec 1879, Ulm, Nemecké cisárstvo – † 18. apríl 1955, Princeton, New Jersey, Spojené štáty americké; bol švajčiarsko-americký teoretický fyzik) vo všeobecnosti považoval inteligenciu nie za schopnosť ukladať informácie, ale za schopnosť vedieť, kde ich nájsť. Pán Dave Waters, profesor na Oxfordskej univerzite v Spojenom Kráľovstve Veľkej Británie a Severného Írska považuje AI za vedeckú technológiu, ktorá predpovedá budúcnosť („predpovedanie budúcnosti nie je mágia, ale umelá inteligencia“).

Vedecký a technický základ pre modernú AI bol vytvorený v 20. storočí vedcami Alanom Turingom, Johnom McCarthym a Marvinom Minskym. Pojem AI prvýkrát použil John McCarthy v roku 1956 na seminári s názvom „Dartmouth Summer Research Project on Artificial Intelligence“.

AI je odvetvie informatiky, ktoré sa zaoberá vytváraním algoritmov a systémov schopných vykonávať úlohy, ktoré by obvykle vyžadovali ľudskú inteligenciu (pozri Štědroň, B., Jašek, R., Svítek, M. a kol., Umělá inteligence a právo, Plzeň: Aleš Čeněk, 2024, s. 13, ISBN-978-80-7380-947-8).

AI je jednou z kľúčových technológií vznikajúcich v rámci štvrtej priemyselnej revolúcie. AI je symbolom technologického vývoja. AI by napriek tomu mala zostať dôveryhodnou technológiou zameranou na človeka a nemala by nahrádzať ľudskú autonómiu ani vytvárať podmienky na stratu individuálnej slobody (pozri siedmy bod uznesenia EP z 3. mája 2022 o umelej inteligencii v digitálnom veku). AI môže predstavovať pre ľudstvo riziko len vtedy, ak to sami ľudia dovolia; v tejto súvislosti jediné skutočné hrozby, ktoré existujú, sú predsudky, zámery a obmedzenia programátorov AI a dáta použité na jej tréning. Každá AI je nejakým spôsobom a nejakým človekom (programátorom) vytvorená (naprogramovaná), preto to, čo je v procese vytvorenia AI naprogramované v jej algoritmoch, bude rozhodujúce pre používanie AI.

AI je zo sociologicko-technického hľadiska považovaná za celosvetový fenomén.

Dňa 26. júla 2025 sa v Šanghaji, Čínskej ľudovej republike konala Svetová konferencia o umelej inteligencii (WAIC), na ktorej pán António Guterres, generálny tajomník Organizácie spojených národov v rámci prezentácie označil globálne riadenie AI za „kľúčovú skúšku našej doby“, ktorá preverí schopnosť ľudstva efektívne zosúladiť rozvoj inovácií s bezpečnostnými a etickými požiadavkami. Apeloval na svetové spoločenstvo, aby výhody AI boli dostupné pre všetkých. V tejto súvislosti tvorba pravidiel pre AI nesmie byť výsadou malej skupiny štátov alebo technologických gigantov, ale musí zohľadňovať aj potreby rozvojových štátov. Vyzdvihol úlohu Organizácie spojených národov ako garanta pri rozvoji a uplatňovaní AI prostredníctvom multilaterálnych platforiem a vedeckých panelov.

Prvým oficiálnym dokumentom vypracovaným orgánom Európskej únie k problematike AI bolo oznámenie Európskej komisie (ďalej len „EK“) z 10. mája 2017 [COM(2017) 228 final] o preskúmaní vykonávania stratégie digitálneho jednotného trhu v polovici trvania (Prepojený digitálny jednotný trh pre všetkých). Oznámenie bolo adresované Európskemu Parlamentu, Rade, Európskemu hospodárskemu a sociálnemu výboru a Výboru regiónov. V tomto oznámení EK zdôraznila význam preferovania vedeckých a priemyselných predností Európskej únie a jej inovatívnych startupov tak, aby Európska únia mala v oblasti rozvoja technológií, platforiem a aplikácií umelej inteligencie vedúcu pozíciu.

Ďalším dokumentom vypracovaným orgánom Európskej únie k problematike AI bolo oznámenie EK z 25. apríla 2018 [COM(2018) 237 final] s názvom „Umelá inteligencia pre Európu“. V tomto oznámení EK určila európsku iniciatívu v oblasti umelej inteligencie, cieľom ktorej je:

- posilniť technologickú a priemyselnú kapacitu Európskej únie a prijímanie umelej inteligencie v celom hospodárstve, a to zo strany súkromného aj verejného sektora; patria sem investície do výskumu a inovácií a lepší prístup k údajom,

- pripraviť sa na sociálno-ekonomické zmeny, ktoré prináša umelá inteligencia, a to podporou modernizácie systémov vzdelávania a odbornej prípravy, rozvíjaním talentu, predvídaním zmien na trhu práce, podporou presunov na trhoch práce a prispôsobením systémov sociálnej ochrany,

- zabezpečiť vhodný etický a právny rámec založený na hodnotách Európskej únie a v súlade s Chartou základných práv Európskej únie; to zahŕňa pripravované usmernenie o existujúcich pravidlách zodpovednosti za výrobok, podrobnú analýzu vznikajúcich výziev a spoluprácu so zainteresovanými stranami prostredníctvom Európskej aliancie pre umelú inteligenciu na vypracovanie etických usmernení pre umelú inteligenciu.

EK na základe tohto oznámenia prehĺbila spoluprácu s členskými štátmi na spoločnom a harmonizovanom rozvoji umelej inteligencie.

Prvým orgánom Európskej únie, ktorý sa zaoberal aplikačnou praxou vo využívaní AI orgánmi verejnej moci členských štátov, bol Európsky parlament (ďalej len „EP“). EP zameral svoju pozornosť osobitne na používanie AI policajnými orgánmi a justičnými orgánmi v trestných veciach a určil základné limity na takýto postup. Základné limity boli vyjadrené v uznesení EP zo 6. októbra 2021 s názvom „Umelá inteligencia v trestnom práve a jej využívanie policajnými a justičnými orgánmi v trestných veciach“ (pozri Ú. v. EÚ C 132, 24.3.2022, s. 17) (ďalej len „uznesenie EP“).

Uznesenie EP obsahuje tieto limity používania AI v trestnom konaní:

- „...akékoľvek nástroje umelej inteligencie, ktoré buď vyvinuli, alebo využívajú orgány presadzovania práva alebo justičné orgány, by mali byť prinajmenšom bezpečné, spoľahlivé, zabezpečené a prispôsobené svojmu účelu, mali by rešpektovať zásady spravodlivosti, minimalizácie údajov, zodpovednosti, transparentnosti, nediskriminácie a vysvetliteľnosti a že ich vývoj, zavedenie a používanie musí byť predmetom posúdenia rizík a prísnych testov nevyhnutnosti a primeranosti, pričom záruky musia byť primerané zisteným rizikám;...“ (pozri štvrtý bod uznesenia EP),

- „...hromadnému sledovaniu prostredníctvom technológií umelej inteligencie, ktoré vo svojej podstate nezodpovedá zásade nevyhnutnosti a proporcionality, a zakázať používanie aplikácií, ktoré by mohli k nemu viesť;“ (pozri šiesty bod uznesenia EP),

- „...v záujme účinnosti uplatňovania práva na obhajobu, ako aj transparentnosti vnútroštátnych systémov trestného súdnictva je nevyhnutné, aby podmienky, spôsoby a dôsledky používania nástrojov umelej inteligencie v oblasti presadzovania práva a v súdnictve, ako aj práva dotknutých osôb a účinné a ľahko dostupné postupy sťažností a nápravy vrátane súdnych prostriedkov nápravy reguloval konkrétny, jasný a presný právny rámec; zdôrazňuje právo strán trestného konania na prístup k procesu zhromažďovania údajov a súvisiacim posúdeniam vykonaným alebo získaným pomocou aplikácií umelej inteligencie; zdôrazňuje, že je potrebné, aby vykonávajúce orgány zapojené do justičnej spolupráce pri rozhodovaní o žiadostiach o vydanie (alebo odovzdanie) inému členskému štátu alebo tretej krajine posúdili, či by použitie nástrojov umelej inteligencie v žiadajúcej krajine mohlo zjavne ohroziť základné právo na spravodlivý proces;...zdôrazňuje, že členské štáty by mali v súlade s platnými právnymi predpismi zabezpečiť, aby boli jednotlivci informovaní, keď sa ich týka použitie aplikácií umelej inteligencie orgánmi presadzovania práva alebo justičnými orgánmi;“ (pozri štrnásty bod uznesenia EP),

- „...v kontexte súdnictva a presadzovania práva musí každé právne rozhodnutie s právnymi alebo podobnými účinkami prijímať vždy človek, ktorého možno brať na zodpovednosť za prijaté rozhodnutia;“ (pozri šestnásty bod uznesenia EP),

- „...zavádzanie systémov rozpoznávania tváre orgánmi presadzovania práva by sa malo obmedziť na jasne opodstatnené účely, pri ktorých sa musia v plnej miere dodržiavať zásady proporcionality a nevyhnutnosti, ako aj platné právne predpisy;... používanie technológie na rozpoznávanie tváre musí byť aspoň v súlade s požiadavkami minimalizácie údajov, presnosti údajov, obmedzenia ich uchovávania, bezpečnosti údajov a zodpovednosti, že musí byť tiež zákonné, spravodlivé a transparentné a mať konkrétny, jednoznačný a legitímny účel, ktorý je jasne vymedzený v práve členského štátu alebo Únie;... overovacie a autentifikačné systémy sa môžu naďalej zavádzať a úspešne používať len vtedy, ak je možné zmierniť ich nepriaznivé účinky a splniť uvedené kritériá;“ (pozri dvadsiaty piaty bod uznesenia EP),

- „...požaduje trvalý zákaz používania automatizovanej analýzy a/alebo rozpoznávania iných ľudských prvkov vo verejne prístupných priestoroch, ako sú chôdza, odtlačky prstov, DNA, hlas a iné biometrické prvky a prejavy správania;“ (pozri dvadsiaty šiesty bod uznesenia EP),

- „...vyjadruje hlboké znepokojenie nad tým, že subjekty presadzovania práva a spravodajské služby používajú súkromné databázy na rozpoznávanie tváre, napríklad databázu Clearview AI obsahujúcu viac ako tri miliardy snímok, ktoré boli nezákonne získané zo sociálnych sietí a iných častí internetu, a to aj od občanov EÚ;... požaduje zákaz využívať súkromné databázy na rozpoznávanie tváre pri presadzovaní práva;“ (pozri dvadsiaty ôsmy bod uznesenia EP).

Pri používaní AI orgánmi presadzujúcimi právo pri odhaľovaní trestnej činnosti a na účely boja proti trestnej činnosti sa vyžaduje dodržiavanie základných práv a slobôd, prísny demokratický dohľad, transparentné pravidlá, výkonná IT infraštruktúra, ľudský dohľad, vysokokvalifikovaní zamestnanci a prístup k veľkému množstvu relevantných údajov (pozri päťdesiaty deviaty bod uznesenia EP z 3. mája 2022 o umelej inteligencii v digitálnom veku).

Používanie AI právnickými povolaniami v aplikačnej praxi bolo témou pracovného stretnutia organizovaného Slovenskou advokátskou komorou 19. februára 2025 v Bratislave. Na tomto pracovnom stretnutí sa zúčastnili zástupcovia Slovenskej advokátskej komory, minister spravodlivosti Slovenskej republiky, predseda Najvyššieho súdu Slovenskej republiky, predseda Najvyššieho správneho súdu Slovenskej republiky, zástupca (sudca) Ústavného súdu Slovenskej republiky, zástupca (prokurátor) Generálnej prokuratúry Slovenskej republiky, štátny tajomník Ministerstva spravodlivosti Slovenskej republiky, rektor Univerzity Komenského v Bratislave a riaditeľ Justičnej akadémie Slovenskej republiky. Účastníci pracovného stretnutia sa na základe odbornej diskusie zhodli na dôležitosti používania AI v justičnom systéme „ako pomocníka“ na účely plnenia obvyklých (rutinných) úloh spôsobom, ktorý nenaruší podstatu justičných povolaní a funkcií a neohrozí systém ochrany základných práv a slobôd a princípy právneho štátu. V súvislosti s používaním AI v aplikačnej praxi účastníci pracovného stretnutia zdôraznili potrebu dôslednej regulácie AI najmä v oblasti informačnej bezpečnosti, ochrany osobných údajov, v postupe pri hodnotení dôkazov a pri zabezpečení dôvernosti vzťahu medzi advokátom a klientom.

Problematika AI patrí z inštitucionálneho hľadiska do pôsobnosti Ministerstva investícií, regionálneho rozvoja a informatizácie Slovenskej republiky (ďalej len „ministerstvo investícií“) [pozri § 10 ods. 1 písm. e) zákona č. 575/2001 Z. z. o organizácii činnosti vlády a organizácii ústrednej štátnej správy].

Na ministerstve investícií pôsobí Stála komisia pre etiku a reguláciu umelej inteligencie (CERAI) ako nezávislý odborný a poradný orgán. CERAI začala svoju činnosť v januári 2021 a má 21 členov. Úlohou CERAI je posudzovanie etických, sociálno-spoločenských a právnych otázok súvisiacich s výskumom, vývojom, nasadzovaním a používaním technológií využívajúcich prvky a systémy AI. CERAI v roku 2022 participovala na príprave mapy expertov pre etiku a reguláciu AI (ide o verejne prístupný zoznam odborníkov, ktorí sa zaoberajú témou etiky a regulácie AI; súčasťou mapy sú nielen experti z akademickej a výskumnej obce, ale aj tí, ktorí sa svojimi aktivitami podieľajú na tvorbe digitálnych politík, či pôsobia ako odborníci v komerčnom sektore; mapa je uverejnená na webovom sídle ministerstva), v roku 2023 vypracovala stanovisko k dôležitosti zodpovedného prístupu pri nasadzovaní AI v podmienkach slovenskej verejnej správy a v roku 2024 vypracovala manuál pre využívanie AI v akademickom prostredí.

Dôležitosť problematiky AI a podpora jej rozvoja v Slovenskej republike s cieľom zabezpečenia bezpečného, etického a efektívneho využívania AI bola dôvodom pre kreovanie funkcie splnomocnenca vlády Slovenskej republiky pre umelú inteligenciu. Túto funkciu vykonáva od 5. júla 2025 Ing. Radoslav Štefánek, druhý štátny tajomník ministerstva investícií (pôsobnosť splnomocnenca vlády Slovenskej republiky pre umelú inteligenciu je ustanovená v Štatúte splnomocnenca vlády Slovenskej republiky pre umelú inteligenciu schválenom uznesením vlády Slovenskej republiky č. 368 zo 4. júla 2025).

Problematika AI ako multidisciplinárna problematika je súčasťou Stratégie digitálnej transformácie Slovenska 2030 schválenej vládou Slovenskej republiky (ďalej len „stratégia“) (pozri uznesenie vlády Slovenskej republiky č. 206/2019 zo 7. mája 2019) .

Cieľom stratégie je, aby sa Slovenská republika do roku 2030 stalo modernou krajinou s inovačným a ekologickým priemyslom ťažiacim zo znalostnej digitálnej a údajovej ekonomiky, s efektívnou verejnou správou zabezpečujúcou inteligentné využívanie územia a infraštruktúry, a s informačnou spoločnosťou, ktorej občania budú naplno využívať svoj potenciál a žiť kvalitný a bezpečný život v digitálnej dobe v kontexte rešpektovania a budovania digitálneho humanizmu.

Účelom stratégie nie je nastavovať konkrétne opatrenia, ale definovať víziu, z ktorej budú opatrenia vychádzať. Krátkodobé opatrenia sú premietnuté do Akčného plánu digitálnej transformácie Slovenska na roky 2019-2022.

Cieľovou entitou stratégie je občan, ktorý by mal mať jednoduchší a kvalitnejší každodenný život na pracovisku aj v súkromí, ako aj občan-podnikateľ, ktorému by mal štát maximálnou možnou mierou znížiť administratívne bremeno a podporiť ho primeranými stimulmi.

Stratégia dáva dôraz na inovatívne technológie, ako sú umelá inteligencia, internet vecí, technológia 5G, veľké dáta a analytické spracovanie dát, blockchain a supervýkonné počítače, ktoré by mali byť motorom ekonomického rastu a posilňovania konkurencieschopnosti Slovenskej republiky.

V Slovenskej republike ako platforma excelentnosti v oblasti AI, jej výskumu a aplikácie nástrojov AI pôsobí AIslovakIA. Ide o neutrálnu, nezávislú a neziskovú platformu, ambíciou ktorej je rozvíjať excelenciu a spájať expertov a záujemcov o umelú inteligenciu. Zakladajúcimi členmi AIslovakIA sú Americká obchodná komora na Slovensku, IT Asociácia Slovenska a Slovenská technická univerzita v Bratislave. Víziou AIslovakIA je vytváranie priestoru pre aktívnu spoluprácu akademickej obce so zástupcami zamestnávateľov, vládnymi predstaviteľmi, zástupcami medzinárodných inštitúcií, či s jednotlivcami s cieľom plne rozvíjať potenciál AI predovšetkým v Slovenskej republike. AIslovakIA zastrešuje Centrum pre umelú inteligenciu (ďalej len „CUI“) ako neziskové záujmové združenie právnických osôb, ktoré vzniklo transformáciou z občianskeho združenia Slovenské centrum pre výskum umelej inteligencie (Slovak.AI). CUI vytvára priestor pre realizáciu digitálnej transformácie Slovenskej republiky a prepájanie komunity záujemcov o AI.

2. Definícia umelej inteligencie a jej druhy

A. Podľa vedeckej doktríny neexistuje jednotne uznávaná definícia AI, a to ani v oblasti AI ako vedeckej disciplíny a ani v oblasti právnej [neexistuje definícia AI, ktorá by spĺňala podmienky na právnu definíciu takéhoto pojmu; z tohto dôvodu by sa pojem „AI“ nemal používať v právnych predpisoch regulačnej povahy, nakoľko absencia jeho právnej definície môže znejasniť predmet a účel dotknutej právnej úpravy – pozri aj čl. 3 ods. 1 nariadenia Európskeho parlamentu a Rady (EÚ) 2024/1689 z 13. júna 2024, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie a ktorým sa menia nariadenia (ES) č. 300/2008, (EÚ) č. 167/2013, (EÚ) č. 168/2013, (EÚ) 2018/858, (EÚ) 2018/1139 a (EÚ) 2019/2144 a smernice 2014/90/EÚ, (EÚ) 2016/797 a (EÚ) 2020/1828 (akt o umelej inteligencii), ktorý obsahuje len definíciu pojmu „systém AI“].

Aj doktrinálne definície AI sú rôzne, a to v závislosti od subjektov, ktoré definujú AI alebo v závislosti od účelu, na ktorý majú byť definície AI použité (tzv. priemyselné definície).

Na základe aktuálnych vedeckých poznatkov môžeme AI definovať rôznym spôsobom:

1. AI môžeme definovať ako:

- strojovú inteligenciu tvoriacu pododvetvie počítačovej vedy,

- technológiu, softvér aplikovaný v počítačových systémoch, ktoré sú spôsobilé fungovať spôsobom podobným ľudskej inteligencie; v dôsledku toho takéto počítačové systémy rozumejú ľudskej reči, sú schopné riešiť problémy, učiť sa z nadobudnutých skúseností, adaptovať sa, seba klasifikovať a zlepšovať,

- stroj, ktorý je spôsobilý vykonať úlohy, ktoré pokiaľ by boli vykonávané ľuďmi by vyžadovali inteligenciu,

- koncepcia strojov, ktoré technológiami AI sledujú dosiahnutie určitého cieľa

(k týmto definíciám pozri bližšie článok Kľučka, J., Medzinárodné právo, umelá inteligencia a vice versa, Časopis pro právní vědu a praxi, XXIX, 3/2021, s. 553-555).

2. AI môžeme definovať ako:

- schopnosť digitálneho počítača alebo počítačom riadeného robota vykonávať úlohy bežne spojené s inteligentnými bytosťami,

- teóriu a vývoj počítačových systémov schopných plniť úlohy, ktoré si obvykle vyžadujú ľudskú inteligenciu, ako je vizuálne vnímanie, rozpoznávanie reči, rozhodovanie a preklad medzi jazykmi,

- program, ktorý si v ľubovoľnom svete dokáže poradiť s úlohami nie horšie ako človek

(k týmto definíciám pozri bližšie Andraško, J. a kol., Právo informačných a komunikačných technológií 2, Bratislava: TINCT, 2021, s. 283).

3. AI môžeme v širšom význame definovať ako vedeckú multidisciplínu, ktorá využíva poznatky z iných vedných odborov, napríklad z matematiky, logiky, štatistiky alebo z informatiky. AI môžeme v užšom význame definovať ako určité procesy alebo schopnosti, ktorými disponujú alebo ich vykonávajú počítače, respektíve ich softvér. Pri definovaní AI sa vychádza zo štyroch kategórií podľa toho, na akom princípe AI pracuje, respektíve o čo sa AI snaží – a) AI sa snaží myslieť ako ľudia [think like humans, thinking humanly], b) AI sa snaží konať ako ľudia [act like humans, acting humanly], c) AI sa snaží myslieť racionálne [think rationally, thinking rationally] alebo d) AI sa snaží konať racionálne [act rationally, acting rationally] (k týmto definíciám pozri bližšie článok Vojtuš, F., Kordík, M., Dražová, P., Umelá inteligencia, jej využívanie a trestnoprávna zodpovednosť – výzvy, problémy a možné riešenia, časopis Právnik 6/2023, s. 551-552).

4. Podľa Expertnej skupiny na vysokej úrovni pre umelú inteligenciu EK sa pod pojmom „AI“ označujú systémy, ktoré sa inteligentne správajú vďaka tomu, že analyzujú svoje prostredie a s určitým stupňom autonómie primerane konajú, aby dosiahli určité ciele. Systémy AI môžu byť založené výlučne na softvéri a pôsobiť vo virtuálnom svete (napríklad hlasoví asistenti, softvér na analýzu fotografií, sieťové vyhľadávače alebo systémy rozpoznávania hlasu a tváre) alebo môžu byť súčasťou hardvérových zariadení (napríklad vyspelé roboty, autonómne vozidlá alebo bezpilotné vzdušné prostriedky).

5. Národná banka Slovenska považuje AI za súbor technológií, ktoré umožňujú počítačom simulovať aspekty ľudskej inteligencie a vykonávať komplexné úlohy. Patrí sem schopnosť AI učiť sa, rozpoznávať vzorce, rozhodovať a vykonávať jazykové spracovanie. Modely AI sa vo finančníctve využívajú dlhodobo najmä na prediktívnu analýzu a detekciu podvodov, zvyšujú efektivitu a presnosť procesov.

B. Aktuálna vedecká doktrína rozlišuje tieto tri druhy (kategórie alebo stupne) AI:

1. slabá (úzka, špecifická alebo obmedzená) AI (Artificial Narow Intelligence – „ANI“),

2. silná (všeobecná) AI (Artificial General Intelligence – „AGI“),

3. superinteligentná AI (Artificial Super Intelligence – „ASI“).

Základom pre takéto delenie AI je jej posudzovanie z hľadiska autonómie a kontroly.

1. Slabá (úzka, špecifická alebo obmedzená) AI (ANI) je systém, ktorý bol navrhnutý tak, aby mal schopnosť vykonávať len konkrétne úlohy alebo súbory úloh, a to v špecifickej oblasti, napríklad ide o hlasových asistentov, rozpoznávanie tváre a reči alebo hranie šachu. ANI dokáže vykonávať nezávislé úsudky a rozhodovanie len v rozsahu svojho dizajnu a naprogramovania, teda predstavuje vôľu tvorcu (programátora) alebo užívateľa systému. ANI si nie je vedomá samej seba, hoci môže prejavy ľudskej kognície a tvorivosti simulovať.

2. Silná (všeobecná) AI (AGI) je systém charakteristický schopnosťou identifikovať a ovládať, má možnosť samostatného a nezávislého rozhodovania aj nad rámec navrhnutého a vytvoreného programu, nad rámec vôle tvorcu (programátora) alebo užívateľa systému. Takýto systém zvládne alebo úspešne vykoná všetky (akékoľvek) intelektuálne úlohy, ktoré zvládne alebo vykoná človek. AGI je autonómny a kognitívny systém, fungujúci bez ľudskej intervencie. AGI v súčasnosti neexistuje, hoci v tejto oblasti AI prebieha pozitívny výskum a vývoj.

3. Superinteligentná AI (ASI) je systém plne sebavedomý a prekonávajúci inteligenciu človeka, teda ide o systém schopnejší ako človek vo všetkých oblastiach bytia a života (systém s nadľudskou inteligenciou). Aktuálne neexistuje metóda, na základe ktorej môže byť vytvorená ASI.

3. Právna úprava a regulácia umelej inteligencie

Pri právnej úprave a regulácii AI a jej používania je potrebné zohľadňovať premisu, podľa ktorej „samotná regulácia AI nie je účelom, ale prostriedkom“ (pozri bližšie Andraško, J. a kol., Právo informačných a komunikačných technológií 2, Bratislava: TINCT, 2021, s. 288).

A. V súčasnosti nie je AI a jej používanie v právnom poriadku Slovenskej republiky upravené žiadnym všeobecne záväzným právnym predpisom ustanoveným v § 1 ods. 1 zákona č. 400/2015 Z. z. o tvorbe právnych predpisov a o Zbierke zákonov Slovenskej republiky a o zmene a doplnení niektorých zákonov.

Aktuálne jediným všeobecne záväzným právnym predpisom, ktorý používa pojem „AI“ je

vyhláška Ministerstva školstva, vedy, výskumu a športu Slovenskej republiky č. 244/2019 Z. z. o sústave študijných odborov Slovenskej republiky v znení vyhlášky Ministerstva školstva, vedy, výskumu a športu Slovenskej republiky č. 26/2023 Z. z., ktorou sa mení a dopĺňa vyhláška Ministerstva školstva, vedy, výskumu a športu Slovenskej republiky č. 244/2019 Z. z. o sústave študijných odborov Slovenskej republiky (ďalej len „vyhláška“). Vyhláška terminologicky používa pojem „AI“ len v prílohe č. 1, a to v súvislosti s určením obsahu študijných odborov, v ktorých môžu vysoké školy v Slovenskej republike poskytovať vysokoškolské vzdelávanie (ide o odbory „Informatika“ a „Kybernetika“).

B. Jediným právnym aktom upravujúcim problematiku AI v Slovenskej republike je nariadenie Európskeho parlamentu a Rady (EÚ) 2024/1689 z 13. júna 2024, ktorým sa stanovujú harmonizované pravidlá v oblasti umelej inteligencie a ktorým sa menia nariadenia (ES) č. 300/2008, (EÚ) č. 167/2013, (EÚ) č. 168/2013, (EÚ) 2018/858, (EÚ) 2018/1139 a (EÚ) 2019/2144 a smernice 2014/90/EÚ, (EÚ) 2016/797 a (EÚ) 2020/1828 (akt o umelej inteligencii) ako sekundárny legislatívny právny akt (prameň práva) Európskej únie (pozri čl. 288 prvú a druhú alineu a čl. 297 ods. 1 a ods. 2 prvú alineu Zmluvy o fungovaní Európskej únie).

Akt o umelej inteligencii bol uverejnený v Úradnom vestníku Európskej únie 12. júla 2024 (Ú. v. EÚ L, 2024/1689, 12.7.2024). Akt o umelej inteligencii nadobudol účinnosť 1. augusta 2024 a bude sa uplatňovať od 2. augusta 2026, avšak niektoré jeho kapitoly a články sa uplatňujú postupne od 2. februára 2025, 2. augusta 2025, resp. od 2. augusta 2027 (pozri čl. 113). Akt o umelej inteligencii má všeobecnú platnosť, je záväzný v celom rozsahu a priamo uplatniteľný vo všetkých členských štátoch.

Akt o umelej inteligencii sa stal súčasťou právneho poriadku Slovenskej republiky dňom jeho uverejnenia v Úradnom vestníku Európskej únie (12. júla 2024) a má prednosť pred zákonmi Slovenskej republiky (pozri čl. 7 ods. 2 druhú vetu Ústavy Slovenskej republiky).

Akt o umelej inteligencii ako sekundárny legislatívny právny akt (prameň práva) Európskej únie môže byť predmetom výkladu len zo strany Súdneho dvora Európskej únie v prejudiciálnom konaní podľa čl. 267 prvej aliney písm. a) a ods. 2 Zmluvy o fungovaní Európskej únie.

V súvislosti s aplikáciou aktu o umelej inteligencii v Slovenskej republike (výkonom práva Európskej únie) sa uplatňuje zásada prednosti práva Európskej únie.

Zásada prednosti práva Európskej únie označovaná v jurisprudencii aj ako precedencia je považovaná za jednu zo základných a všeobecných zásad práva Európskej únie.

Zásada prednosti práva Európskej únie tvorí integrálnu súčasť právneho poriadku Európskej únie a je základným predpokladom pre jednotné a efektívne uplatňovanie práva Európskej únie v jednotlivých členských štátoch bez rozdielov (mutatis mutandis rozsudok Súdneho dvora Európskej únie z 26. februára 2013 sp. zn. C- 399/2011, body 59 a 60).

Zásada prednosti práva Európskej únie má absolútny charakter z hľadiska prameňov práva Európskej únie vo vzťahu k právnemu poriadku členského štátu. Táto zásada sa vzťahuje nielen na úplnú aplikáciu primárneho práva Európskej únie, ale aj na úplnú aplikáciu sekundárneho práva Európskej únie vo vzťahu k právnemu poriadku členského štátu (mutatis mutandis rozsudok Súdneho dvora Európskej únie z 22. februára 2022 sp. zn. C- 430/2021, bod 50).

Zásada prednosti práva Európskej únie nemá normatívny charakter (nevyplýva expressis verbis z primárneho práva Európskej únie).

Táto zásada je výsledkom jurisdikcie Súdneho dvora Európskej únie vytvorenej pri výklade primárneho práva a sekundárneho práva Európskej únie. Nenormatívny charakter zásady prednosti práva Európskej únie potvrdzuje aj Vyhlásenie medzivládnej konferencie z 13. decembra 2007, ktorá prijala Lisabonskú zmluvu (vyhlásenie uverejnené v Úradnom vestníku Európskej únie pod č. C2012/326/01 - ďalej len „vyhlásenie“). Sedemnásty bod vyhlásenia s názvom „Vyhlásenie o prednosti“ znie: „Konferencia pripomína, že v súlade s ustálenou judikatúrou Súdneho dvora Európskej únie majú zmluvy a právo prijaté Úniou na základe zmlúv prednosť pred právom členských štátov za podmienok ustanovených v uvedenej judikatúre Súdneho dvora. Okrem toho sa konferencia rozhodla pripojiť k tomuto záverečnému aktu stanovisko Právneho servisu Rady o prednosti, ktoré sa nachádza v dokumente 11197/07 (JUR 260): „Stanovisko Právneho servisu Rady z 22. júna 2007:Z judikatúry Súdneho dvora vyplýva, že prednosť práva Spoločenstva je základnou zásadou tohto práva. Podľa Súdneho dvora táto zásada je obsiahnutá v osobitnom charaktere Európskeho spoločenstva. V čase vynesenia prvého rozsudku tejto ustálenej judikatúry [rozsudok z 15. júla 1964 č. 6/64 vo veci Costa/ENEL] sa v zmluve prednosť práva nespomínala. Dnes je situácia rovnaká. Skutočnosť, že zásada prednosti nebude uvedená v budúcej zmluve, žiadnym spôsobom nemení existenciu tejto zásady ani existujúcu judikatúru Súdneho dvora.

Podstatou zásady prednosti práva Európskej únie je, ževo vzťahu k právnemu poriadku členského štátu vyjadruje aplikačnú relevanciu a prednosť práva Európskej únie.

Podmienkou sine qua non na uplatnenie aplikačnej prednosti práva Európskej únie je:

1. vykonávanie práva Európskej únie zo strany členského štátu,

2. priamy účinok a uplatniteľnosť práva Európskej únie (mutatis mutandis rozsudok Súdneho dvora Európskej únie z 22. februára 2022 sp. zn. C- 430/2021, bod 53 a rozsudok Súdneho dvora Európskej únie z 5. júna 2023 sp. zn. C- 204/2021, bod 228).

Účelom aktu o umelej inteligencii je zlepšiť fungovanie vnútorného trhu Európskej únie určením jednotného právneho rámca, najmä pokiaľ ide o vývoj, uvádzanie na trh, uvádzanie do prevádzky a používanie systémov AI.

Akt o umelej inteligencii je vnútorne členený na:

- recitál (má celkom 180 bodov),

- XIII kapitol (má celkom 113 článkov).

Z recitálu, ktorý obsahuje základné interpretačné zásady k ostatnému textu právneho aktu, sú na účely tohto materiálu (používanie AI v trestnom konaní) relevantné body 59., 61., 69., 73. a 74.

Podľa bodu 59. recitálu „Konanie orgánov presadzovania práva zahŕňajúce určité použitia systémov AI sa vzhľadom na ich úlohu a zodpovednosť vyznačuje značným stupňom nerovnováhy moci a môže viesť k sledovaniu, zadržaniu alebo pozbaveniu slobody fyzickej osoby, ako aj k iným nepriaznivým vplyvom na základné práva zaručené chartou. Najmä ak systém AI nie je trénovaný na vysokokvalitných údajoch, nespĺňa primerané požiadavky, pokiaľ ide o jeho výkon, presnosť alebo spoľahlivosť, alebo nie je pred uvedením na trh alebo do prevádzky riadne dizajnovaný a otestovaný, môže ľudí selektovať diskriminačným alebo inak nesprávnym či nespravodlivým spôsobom...je vhodné klasifikovať (používané systémy AI) ako vysokorizikové...systémy AI...Vzhľadom na povahu predmetných činností a s nimi súvisiace riziká by tieto vysokorizikové systémy AI mali zahŕňať najmä systémy AI určené na používanieorgánmi presadzovania práva alebo v ich mene alebo inštitúciami, orgánmi, úradmi alebo agentúrami Únie na podporu orgánov presadzovania práva na posúdenie rizika, že sa fyzická osoba stane obeťou trestných činov, ako sú polygrafy a podobné nástroje, na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov... aj na posúdenie rizika, že fyzická osoba spácha alebo opakovane spácha trestný čin,... na profilovanie v priebehu odhaľovania, vyšetrovania alebo stíhania trestných činov... Systémy AI, ktoré sú osobitne určené na používanie v správnych konaniach daňovými a colnými orgánmi, ako aj finančnými spravodajskými jednotkami vykonávajúcimi administratívne úlohy spočívajúce v analýze informácií podľa právnych predpisov Únie v oblasti boja proti praniu špinavých peňazí, by sa nemali klasifikovať ako vysokorizikové systémy AI...“

Podľa bodu 61. recitálu „...Ako vysokorizikové je vhodné kvalifikovať systémy AI určené na použitie zo strany justičného orgánu alebo v jeho mene na pomoc justičným orgánom pri skúmaní a výklade skutkových okolností a práva a pri uplatňovaní práva na konkrétny súbor skutkových okolností, najmä z dôvodu riešenia rizík možného skreslenia, chýb a nepriehľadnosti... Používanie nástrojov AI môže podporiť rozhodovaciu právomoc sudcov alebo nezávislosť súdnictva, ale nemalo by ju nahrádzať: konečné rozhodovanie musí zostať ľudskou činnosťou. Kvalifikácia systémov AI ako vysokorizikových by sa však nemala vzťahovať na systémy AI určené na čisto pomocné administratívne činnosti, ktoré nemajú vplyv na samotný výkon spravodlivosti v jednotlivých prípadoch, ako napríklad anonymizácia alebo pseudonymizácia súdnych rozhodnutí, dokumentov alebo údajov, komunikácia medzi zamestnancami alebo administratívne úlohy.“

Podľa bodu 69. recitálu „Právo na súkromie a ochranu osobných údajov musí byť zaručené počas celého životného cyklu systému AI...“

Podľa bodu 73. recitálu „Vysokorizikové systémy AI by mali byť dizajnované a vyvinuté tak, aby fyzické osoby mohli dohliadať na ich fungovanie, zabezpečiť, aby sa používali podľa zámeru a aby sa ich vplyvy riešili počas životného cyklu systému...“

Podľa bodu 74. recitálu „Vysokorizikové systémy AI by mali fungovať konzistentne počas celého svojho životného cyklu a mali by spĺňať primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti vzhľadom na ich zamýšľaný účel a v súlade so všeobecne uznávaným aktuálnym stavom vývoja...“

Podľa čl. 1 ods. 2 písm. c) (kapitola I) sa stanovujú osobitné požiadavky na vysokorizikové systémy AI a povinnosti prevádzkovateľov takýchto systémov.

Akt o umelej inteligencii obsahuje osobitné ustanovenia pre systémy AI (kapitoly II až IV) a osobitné ustanovenia pre modely AI (kapitola V).

Pojem „systém AI“ je definovaný ako strojový systém, ktorý je dizajnovaný na prevádzku s rôznymi úrovňami autonómnosti, ktorý môže po nasadení prejavovať adaptabilitu a ktorý pre explicitné alebo implicitné ciele odvodzuje zo vstupov, ktoré dostáva, spôsob generovania výstupov, ako sú predpovede, obsah, odporúčania alebo rozhodnutia, ktoré môžu ovplyvniť fyzické alebo virtuálne prostredie (pozri čl. 3 ods. 1).

Pojem „systém AI na všeobecné účely“ je definovaný ako systém AI, ktorý je založený na modeli AI na všeobecné účely a ktorý je spôsobilý slúžiť na rôzne účely, a to na priame použitie, ako aj na integráciu do iných systémov AI (pozri čl. 3 ods. 66).

Pojem „orgán presadzovania práva“ je definovaný ako

a) každý orgán verejnej moci príslušný v oblasti predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo v oblasti výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu,

b) každý iný orgán alebo subjekt, ktorý bol právom členského štátu poverený vykonávať verejnú moc a verejné právomoci na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania alebo na účely výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu (pozri čl. 3 ods. 45).

Pojem „presadzovania práva“ je definovaný ako činnosti vykonávané orgánmi presadzovania práva alebo v ich mene na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania, alebo na účely výkonu trestných sankcií vrátane ochrany pred ohrozením verejnej bezpečnosti a predchádzania takémuto ohrozeniu (pozri čl. 3 ods. 46).

Pojem „deep fake“ je definovaný ako obrazový obsah, audioobsah alebo videoobsah vytvorený alebo zmanipulovaný pomocou AI, ktorý sa podobá na existujúce osoby, objekty, miesta, subjekty alebo udalosti a osobe by sa falošne javil ako autentický alebo pravdivý (pozri čl. 3 ods. 60).

Pojem „model AI na všeobecné účely“ je ako model AI, a to aj model AI trénovaný veľkým množstvom údajov s použitím samokontroly vo veľkom rozsahu, ktorý má významnú všeobecnú povahu a je schopný kompetentne vykonávať širokú škálu odlišných úloh bez ohľadu na spôsob, akým sa model uvádza na trh, a ktorý možno integrovať do rôznych nadväzujúcich systémov alebo aplikácií, s výnimkou modelov AI, ktoré sa využívajú na účely výskumných, vývojových a prototypových činností pred ich uvedením na trh (pozri čl. 3 ods. 63).

Inštitucionálne vykonávanie aktu o umelej inteligencii je zabezpečené prostredníctvom Európskeho úradu pre umelú inteligenciu a Európskej rady pre umelú inteligenciu.

Európsky úrad pre umelú inteligenciu bol zriadený rozhodnutím EK z 24. januára 2024 č. C(2024)390. Európsky úrad pre umelú inteligenciu je centrom odborných znalostí v oblasti AI v celej Európskej únii a tvorí základ jednotného európskeho systému riadenia AI. Je podporným odborným orgánom Európskej rady pre umelú inteligenciu. Má kľúčovú úlohu pri vykonávaní aktu o umelej inteligencii, najmä pokiaľ ide o AI na všeobecné účely, pričom podporuje vývoj a používanie dôveryhodnej AI a medzinárodnú spoluprácu. Zabezpečuje strategický, spoločný a účinný európsky prístup k AI na medzinárodnej úrovni a stáva sa globálnym referenčným bodom (pozri najmä čl. 64, čl. 89 a čl. 92).

Európska rada pre umelú inteligenciu bola zriadená aktom o umelej inteligencii (pozri čl. 65) ako poradný orgán EK. Európska rada pre umelú inteligenciu sa skladá zo zástupcov každého členského štátu. Predsedá jej jeden z členských štátov. Európska rada pre umelú inteligenciu má rozsiahlu pôsobnosť pri vykonávaní aktu o umelej inteligencii (pozri čl. 65 a čl. 66).

Európska rada pre umelú inteligenciu pomáha koordinovať a zabezpečovať spoluprácu medzi členskými štátmi s cieľom konzistentne vykonávať a uplatňovať akt o umelej inteligencii v celej Európskej únii. Na tento účel koordinuje príslušné vnútroštátne orgány zodpovedné za vykonávanie aktu o umelej inteligencii a zabezpečuje zhromažďovanie a výmenu technických a regulačných odborných znalostí a postupov. Európska rada pre umelú inteligenciu plní proaktívnu úlohu pri formovaní politiky v oblasti AI v celej Európskej únii tým, že poskytuje poradenstvo v oblasti inovačnej politiky, medzinárodných partnerstiev v oblasti AI a iných strategických záležitostí súvisiacich s AI.

Akt o umelej inteligencii síce neobsahuje definíciu pojmu „vysokorizikový systém AI“, ale ustanovuje prísne pravidlá pre klasifikáciu vysokorizikových systémov AI a požiadavky na tieto systémy a na ich používanie (čl. 6 až 49).

Pod pojmom „vysokorizikový systém AI“ je potrebné vo všeobecnosti rozumieť systém AI, ktorý je dizajnovaný a vyvinutý tak, že jeho používanie môže byť selektívne [môže dôjsť k selekcii objektu (fyzickej osoby) diskriminačným alebo inak nesprávnym či nespravodlivým spôsobom], a ktorý môže s prihliadnutím na ním zamýšľaný účel použitia priamo zasahovať do základných práv a slobôd.

Vysokorizikový systém AI musí na účely používania spĺňať podmienky dôveryhodnosti, etickosti a transparentnosti. Systém AI sa považuje za dôveryhodný vtedy, ak rešpektuje ľudskú autonómiu, spravodlivosť, je vysvetliteľný a zameraný na prevenciu vzniku ujmy (pozri bližšie etické usmernenia prijaté v roku 2019 Expertnou skupinou na vysokej úrovni pre AI v Andraško, J. a kol., Právo informačných a komunikačných technológií 2, Bratislava: TINCT, 2021, s. 290).

Za vysokorizikové systémy AI sa považujú systémy AI, ktoré sa používajú v oblasti presadzovania práva (aj v trestnom konaní) a ich použitie je povolené podľa príslušných právnych predpisov Európskej únie alebo vnútroštátnych právnych predpisov, napríklad na tieto účely:

- na posudzovanie rizika, že sa fyzická osoba stane obeťou trestných činov,

- ako polygrafy alebo podobné nástroje,

- na hodnotenie spoľahlivosti dôkazov v priebehu vyšetrovania alebo stíhania trestných činov,

- na posudzovanie rizika, že fyzická osoba spácha alebo opätovne spácha trestný čin alebo na posúdenie osobnostných čŕt a charakteristických znakov alebo trestnej činnosti fyzických osôb alebo skupín v minulosti

(pozri čl. 6 ods. 2 v spojení s prílohou III, šiestym bodom).

Podmienkou sine qua non na použitie vysokorizikových systémov AI v trestnom konaní je, aby postup použitia takýchto systémov AI bol povolený (upravený) podľa právnych predpisov Európskej únie alebo právnych predpisov členských štátov.

Objektívnymi (technickými) podmienkami na použitie vysokorizikových systémov AI v trestnom konaní sú:

- vysokorizikové systémy AI musia spĺňať určené požiadavky s prihliadnutím na ich zamýšľaný účel, ako aj na všeobecne uznávaný aktuálny stav vývoja AI a technológií súvisiacich s AI (pozri čl. 8 ods. 1),

- vysokorizikové systémy AI sa musia testovať na účely zistenia najvhodnejších a cielených opatrení na riadenie rizík; testovaním sa zabezpečí, aby vysokorizikové systémy AI fungovali konzistentne s ich zamýšľaným účelom (pozri čl. 9 ods. 6),

- vysokorizikové systémy AI musia pred uvedením na trh alebo do prevádzky (používania) obsahovať technickú dokumentáciu systému; technická dokumentácia, ktorá sa aktualizuje, musí preukazovať, že systém spĺňa určené požiadavky (pozri čl. 11 ods. 1),

- vysokorizikové systémy AI musia technicky umožňovať automatické zaznamenávanie udalostí („logy“) počas životnosti systému (pozri čl. 12 ods. 1),

- vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby sa zabezpečilo, že ich prevádzka (používanie) je dostatočne transparentná na to, aby nasadzujúcemu subjektu (pojem je definovaný v čl. 3 ods. 4 – napríklad orgán verejnej moci) umožnila interpretovať výstupy systému a vhodne ich používať (pozri čl. 13 ods. 1),

- vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby nad nimi počas obdobia ich používania mohli fyzické osoby vykonávať účinný dohľad, a to aj pomocou vhodných nástrojov rozhrania človek – stroj (pozri čl. 14 ods. 1),

- vysokorizikové systémy AI musia byť dizajnované a vyvinuté tak, aby dosahovali primeranú úroveň presnosti, spoľahlivosti a kybernetickej bezpečnosti, a to konzistentne počas celého svojho životného cyklu (pozri čl. 15 ods. 1).

Subjekt nasadzujúci do používania vysokorizikové systémy AI (ide napríklad o orgán verejnej moci, teda aj o prokuratúru Slovenskej republiky) v trestnom konaní musí splniť podmienky ustanovené v čl. 26, napríklad

- prijať vhodné technické a organizačné opatrenia s cieľom zabezpečiť, aby sa používali takéto systémy v súlade s návodom na použitie, ktorý je k nim priložený,

- prideliť ľudský dohľad fyzickým osobám, ktoré majú potrebnú spôsobilosť, odbornú prípravu a právomoci, ako aj nevyhnutnú podporu,

- požiadať ex ante alebo bez zbytočného odkladu, najneskôr do 48 hodín, o povolenie justičného orgánu na použitie vysokorizikového systému AI na účely následnej (nie online) diaľkovej biometrickej identifikácie (pojem definovaný v čl. 3 ods. 43) pri vyšetrovaní konkrétneho trestného činu v súvislosti s cieleným pátraním po podozrivej osobe alebo po odsúdenej osobe, okrem prípadu, ak sa systém používa na počiatočnú identifikáciu potenciálnej podozrivej osoby na základe objektívnych a overiteľných skutočností priamo súvisiacich s trestným činom.

Subjekt môže nasadiť do používania vysokorizikový systém AI v trestnom konaní len vtedy, ak je tento systém registrovaný v databáze Európskej únie, ktorú riadi a spravuje EK v spolupráci s členskými štátmi (pozri čl. 49 ods. 1 a čl. 71 ods. 1).

Akt o umelej inteligencii expressis verbis umožňuje používanie AI aj v systémoch diaľkovej biometrickej identifikácie v reálnom čase (pojem je definovaný v čl. 3 ods. 42) vo verejne prístupných priestoroch (pojem je definovaný v čl. 3 ods. 44) na účely presadzovania práva len vtedy, ak takéto použitie AI je nevyhnutne potrebné na:

- cielené pátranie po konkrétnych obetiach únosov, obchodovania s ľuďmi alebo sexuálneho vykorisťovania ľudí, ako aj pátranie po nezvestných osobách, alebo

- na predchádzanie konkrétnemu, závažnému a bezprostrednému ohrozeniu života alebo fyzickej bezpečnosti fyzických osôb alebo skutočnej a existujúcej alebo skutočnej a predvídateľnej hrozbe teroristického útoku alebo

- na lokalizáciu alebo identifikáciu osoby podozrivej zo spáchania trestného činu na účely vedenia vyšetrovania alebo stíhania trestného činu alebo výkonu trestnej sankcie za trestné činy uvedené v prílohe II [ide o taxatívny výpočet trestných činov – terorizmus, obchodovanie s ľuďmi, sexuálne vykorisťovanie detí a detská pornografia, nedovolené obchodovanie s omamnými látkami alebo psychotropnými látkami, nedovolené obchodovanie so zbraňami, strelivom alebo s výbušninami, vražda, ťažká ujma na zdraví, nedovolené obchodovanie s ľudskými orgánmi alebo tkanivami, nedovolené obchodovanie s jadrovými materiálmi alebo rádioaktívnymi materiálmi, únos, obmedzovanie osobnej slobody, branie rukojemníka, nezákonné ovládnutie lietadla alebo plavidla, znásilnenie, trestné činy proti životnému prostrediu, organizovaná alebo ozbrojená lúpež, sabotáž, trestné činy podliehajúce právomoci Medzinárodného trestného súdu (ICC) a účasť v zločineckej organizácii zapojenej do jedného alebo viacerých uvedených trestných činov], za ktoré možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie obmedzujúce slobodu s hornou hranicou trestnej sadzby najmenej štyri roky [výklad ustanovenia čl. 5 ods. 1 prvý pododsek písm. h) s použitím pravidla argumentum a contrario].

C. Niektoré ustanovenia aktu o umelej inteligencii je potrebné ex lege implementovať zákonom, napríklad čl. 70, ktorý ustanovuje určenie vnútroštátnych príslušných orgánov a jednotných kontaktných miest na účely notifikácie (notifikačný orgán) a dohľadu nad trhom.

Na účely implementácie uvedeného článku aktu o umelej inteligencii aktuálne prebieha legislatívny proces, predmetom ktorého je návrh zákona o organizácii štátnej správy v oblasti umelej inteligencie a o zmene a doplnení niektorých zákonov (ďalej len „návrh zákona“). Návrh zákona predložilo do legislatívneho procesu ministerstvo investícií. Legislatívny proces (LP/2025/401) sa aktuálne nachádza v štádiu po skončení pripomienkového konania (pripomienkové konanie bolo začaté 1. augusta 2025 a skončilo 21. augusta 2025 – vec je registrovaná na odbore legislatívy, stratégie a ústavného práva pod sp. zn. Leg/1 110/25/1000; Generálna prokuratúra Slovenskej republiky nemala k návrhu zákona žiadne pripomienky).

Z návrhu zákona vyplývajú tieto skutočnosti:

- štátnu správu v oblasti umelej inteligencie bude vykonávať všeobecný orgán dohľadu nad trhom, notifikujúci orgán a ministerstvo investícií,

- všeobecný orgán dohľadu nad trhom bude ministerstvo investícií (pozri § 3 ods. 1 návrhu zákona),

- notifikujúcim orgánom bude Úrad na ochranu osobných údajov (pozri čl. II šiesty bod návrhu zákona v spojení s čl. 28 aktu o umelej inteligencii),

- jednotným kontaktným miestom bude ministerstvo investícií (pozri § 4 ods. 2 návrhu zákona),

- sektorovými orgánmi dohľadu nad trhom budú Úrad na ochranu osobných údajov, Národný bezpečnostný úrad a orgány ustanovené v § 26 zákona č. 56/2018 Z. z. o posudzovaní zhody výrobku, sprístupňovaní určeného výrobku na trhu a o zmene a doplnení niektorých zákonov v znení neskorších predpisov (napríklad Slovenská obchodná inšpekcia, Dopravný úrad, Štátny ústav pre kontrolu liečiv alebo Inšpektorát práce) (pozri § 3 ods. 1 návrhu zákona),

- vytvára sa základný regulačný rámec pre prevádzkovateľov vysokorizikového systému AI (pozri § 6 návrhu zákona),

- zriaďuje sa regulačné experimentálne prostredie (táto povinnosť je v pôsobnosti ministerstva investícií – pozri § 7 návrhu zákona),

- určujú sa podmienky na obligatórnu súčinnosť zo strany orgánov verejnej moci (teda aj prokuratúry Slovenskej republiky) vo vzťahu k ministerstvu investícií ako všeobecnému orgánu dohľadu nad trhom a sektorovým orgánom dohľadu nad trhom na plnenie ich úloh (pozri § 14 návrhu zákona).

Účinnosť navrhnutého zákona je ustanovená od 1. januára 2026.

D. Súčasťou regulácie AI de lege ferenda bude aj právny akt upravujúci problematiku zodpovednosti za používanie AI, a to smernica Európskeho parlamentu a Rady o prispôsobení pravidiel mimozmluvnej občianskoprávnej zodpovednosti umelej inteligencii (smernica o zodpovednosti za umelú inteligenciu). Ide o sekundárny legislatívny právny akt (prameň práva) Európskej únie (pozri čl. 288 prvú a druhú alineu a čl. 297 ods. 1 a ods. 2 prvú alineu Zmluvy o fungovaní Európskej únie). Legislatívny proces, predmetom ktorého je návrh tohto právneho aktu, aktuálne prebieha [návrh bol uverejnený EK ako materiál COM(2022) 496 final, 28. 9. 2022]. K návrhu právneho aktu sa v roku 2022 vyjadrilo Ministerstvo spravodlivosti Slovenskej republiky vo forme riadneho predbežného stanoviska (LPEU/2022/565). Návrh právneho aktu a predbežné stanovisko bolo prerokované 7. decembra 2022 na 68. schôdzi Výboru Národnej rady Slovenskej republiky pre európske záležitosti (uznesenie č. CRD-2565-3/2022-VEZ, bod 115.).

E. Súčasťou regulácie AI musí byť aj súdna jurisprudencia, ktorá prostredníctvom autority súdnej judikatúry vytvára limity (rámce) pre používanie systémov AI v spoločensko-politických sférach zasahujúcich do základných práv a slobôd.

Na účely komplexného posúdenia problematiky používania systémov AI je potrebné poukázať na tieto rozhodnutia súdnych autorít:

- Európsky súd pre ľudské práva v rozsudku zo 4. decembra 2008 č. 30562/04 a 30566/04 vo veci S. a Marper proti Spojenému kráľovstvu Veľkej Británie a Severného Írska, bod 112 a v rozsudku z 13. februára 2024 č. 33696/19 vo veci Podchasov proti Ruskej federácii, bod 62 konštatoval, že použitie moderných vedeckých techník (išlo o použitie technických systémov na odoberanie a uchovávanie daktyloskopických otlačkov, biologických vzoriek alebo profilov DNA podozrivých osôb alebo odsúdených na účely prevencie trestnej činnosti) nemožno povoliť za žiadnu cenu a bez dôkladného vyváženia potenciálnych prínosov rozsiahleho požívania takýchto techník vo vzťahu k dôležitým záujmom na ochrane súkromného života a každý štát, ktorý presadzuje rozvoj nových technológií, má osobitnú zodpovednosť za dosiahnutie správnej rovnováhy v tejto oblasti; Európsky súd pre ľudské práva v obidvoch uvedených veciach rozhodol o porušení čl. 8 Dohovoru o ochrane ľudských práv a základných slobôd vo vzťahu k sťažovateľom,

- Európsky súd pre ľudské práva v rozsudku z 13. februára 2020 č. 45245/15 vo veci Gaughran proti Spojenému kráľovstvu Veľkej Británie a Severného Írska, bod 70 konštatoval, že rýchly rozvoj čoraz sofistikovanejších techník, ktoré umožňujú aj použitie techník rozpoznávania tváre a mapovania tváre na fotografiách jednotlivcov, spôsobuje, že fotografovanie týchto osôb a uchovávanie a možné šírenie výsledných údajov je problematické; vnútroštátne súdy musia pri posudzovaní nevyhnutnosti zásahu do súkromného života dotknutej osoby zohľadniť tieto faktory; Európsky súd pre ľudské práva vo veci rozhodol o porušení čl. 8 Dohovoru o ochrane ľudských práv a základných slobôd vo vzťahu k sťažovateľovi,

- Ústavný súd Slovenskej republiky sa v náleze z 10. novembra 2021 sp. zn. PL. ÚS 25/2019 zaoberal obsahom ústavného práva na informačné sebaurčenie podľa čl. 16 ods. 1, čl. 19 ods. 2 a ods. 3 Ústavy Slovenskej republiky v súvislosti s automatizovaným posúdením jednotlivca s využitím informácií o osobe z rôznych databáz; vzhľadom na to, že každé automatizované posudzovanie jednotlivca môže mať dosah na jeho základné práva a slobody, orgány verejnej moci musia v tomto procese dodržiavať osobitné záruky, a to záruky transparentnosti, individuálnej ochrany a kolektívneho dozoru (body 131 až 139); Ústavný súd Slovenskej republiky v konaní podľa čl. 125 ods. 1 písm. a) Ústavy Slovenskej republiky rozhodol, že ustanovenie § 8a ods. 1 zákona č. 289/2008 Z. z. o používaní elektronickej registračnej pokladnice a o zmene a doplnení zákona Slovenskej národnej rady č. 511/1992 Zb. o správe daní a poplatkov a o zmenách v sústave územných finančných orgánov v znení neskorších predpisov v časti „unikátny identifikátor kupujúceho, ak je predložený kupujúcim pred zaevidovaním prijatej tržby“ nie je v súlade s čl. 16 ods. 1, čl. 19 ods. 2 a ods. 3 Ústavy Slovenskej republiky,

- Súdny dvor Európskej únie v rozsudku z 28. novembra 2024 vo veci C-80/23 o návrhu Krajského súdu v Sofii, Bulharská republika na začatie prejudiciálneho konania podal výklad čl. 10 smernice Európskeho parlamentu a Rady (EÚ) 2016/680 z 27. apríla 2016 o ochrane fyzických osôb pri spracúvaní osobných údajov príslušnými orgánmi na účely predchádzania trestným činom, ich vyšetrovania, odhaľovania alebo stíhania alebo na účely výkonu trestných sankcií a o voľnom pohybe takýchto údajov a o zrušení rámcového rozhodnutia Rady 2008/977/SVV v spojení s čl. 4 ods. 1 písm. a) až c) a čl. 8 ods. 1 a ods. 2 tejto smernice tak, že ak vnútroštátna právna úprava ustanovuje systematické získavanie biometrických a genetických údajov o každej osobe obvinenej z úmyselného trestného činu stíhanej ex offo na účely ich registrácie, má príslušný orgán podľa čl. 3 bodu 7 smernice povinnosť overiť a preukázať úplnú nevyhnutnosť získavania takýchto údajov v súlade s čl. 10 smernice.

4. Používanie umelej inteligencie v justičnom systéme, najmä na prokuratúre Slovenskej republiky

Dôvody, pre ktoré by sa systémy AI mali používať v justičnom systéme, teda aj na prokuratúre Slovenskej republiky sú nasledovné (autor tohto materiálu akceptuje rýchly vývoj informačných technológií a informačno-komunikačných technológií, ich rozširujúce používanie takmer v každej sfére života a zároveň aj objektívnu nemožnosť vytvorenia účinných bariér na zabránenie preniknutia týchto technológií do právnej praxe):

A. systémy AI môžu automatizovať časovo náročné a rutinné činnosti právnikov, napríklad vyhľadávanie a analýza právnych dokumentov (právnych predpisov, právnych úkonov alebo súdnych rozhodnutí), vyplňovanie formulárov, sledovanie legislatívneho procesu a tvorby legislatívnych zmien (na takýto účel slúži systém AI - JUSTICEBOT používaný v justičnom systéme v Severnej Amerike a v niektorých európskych štátoch),

B. systémy AI môžu znižovať výskyt ľudských chýb v procese analýzy právnych dokumentov a v procese ich interpretácie,

C. systémy AI môžu priniesť nové metódy predikcie výsledkov, napríklad súdnych konaní na základe súdnej judikatúry, a to v kontexte s určením a aplikáciou vhodnej a účinnej stratégie postupu v súdnom konaní (napríklad britskí výskumníci vyvinuli systém AI predikujúci rozhodovanie Európskeho súdu pre ľudské práva vo vzťahu k čl. 2, čl. 3, čl. 6 a čl. 8 Dohovore o ochrane ľudských práv a základných slobôd),

D. systémy AI môžu analyzovať informácie z rôznych databáz, napríklad z databázy znaleckých posudkov, a to na účely prípravy podkladov na vykonanie kontrolného znaleckého dokazovania,

E. systémy AI môžu predikovať recidívu páchateľa (pri používaní takýchto systémov AI sa musí dosiahnuť rovnováha medzi verejným záujmom na boj proti trestnej činnosti s právom na súkromie a súkromný život) alebo miesto spáchania ďalšej trestnej činnosti totožným páchateľom,

F. systémy AI môžu analyzovať rôzne technické poškodenia, napríklad stavieb alebo analyzovať poškodenia ľudského organizmu, napríklad zlomeniny na kostiach alebo analyzovať historické stopy (artefakty) alebo analyzovať daktyloskopické stopy alebo biologické stopy, napríklad DNA,

G. systémy AI môžu spracovať a analyzovať elektronické dôkazy,

H. systémy AI môžu vykonávať revíziu rôznych dokumentov na účely identifikácie potenciálnych problémov alebo rizík,

I. systémy AI môžu vykonávať prekladateľské činnosti.

V súčasnosti už uvedené činnosti môžu vykonávať systémy AI, napríklad ChatGPt (systém vyvinutý OpenAI; ide o americkú neziskovú organizáciu vzniknutú v roku 2015, ktorej činnosť je zameraná na výskum AI a tvorbu open-source systémov AI), Chatbot Copilot (systém vyvinutý v rámci internetového prehliadača MICROSOFT EDGE americkou počítačovou spoločnosťou Microsoft Corporation), Chatbot Aria (systém vyvinutý v rámci internetového prehliadača Opera) a Chatbot Gemini (systém vyvinutý Google LLC., americkou holdingovou spoločnosťou vzniknutou v roku 1998).

Na prokuratúre Slovenskej republiky sa v súčasnosti používajú tieto systémy AI:

- systémy AI vyvinuté a poskytnuté EK na účely prekladu pracovných textov a dokumentov najmä z anglického jazyka do slovenského jazyka a naopak,

- systémy AI na účely analýzy informácií z Centrálneho informačného systému prokuratúry a ich následnej interpretácie pri výkone pôsobnosti.

Pri používaní systémov AI v trestnom práve by mala platiť zásada, že „AI sa nemôže stať účelom, ktorý svätí prostriedky“ (mutatis mutandis rozsudok Európskeho súdu pre ľudské právaz 25. marca 1992 č. 13590/88vo veci Campbell proti Spojenému kráľovstvu Veľkej Británie a Severného Írska).

5. Záver, relevantné aspekty používania AI v práve pro futuro a námety na diskusiu

A. Záver:

1. akt o umelej inteligencii obsahuje komplexnú úpravu používania AI v Slovenskej republike,

2. akt o umelej inteligencii upravuje požiadavky a podmienky na používanie AI prokuratúrou Slovenskej republiky aj na účely trestného konania:

- v trestnom konaní je možné z hľadiska typu používať dva systémy AI, a to vysokorizikový systém AI alebo systém AI, ktorý nie je považovaný za vysokorizikový; systém AI, ktorý nie je považovaný za vysokorizikový, je systém AI určený na (i)vykonávanie úzko vymedzenej procedurálnej úlohy alebo (ii) systém AI určený na zlepšenie výsledku predtým dokončenej ľudskej činnosti alebo (iii) systém AI určený na zisťovanie vzorcov rozhodovania alebo odchýlok od vzorcov predchádzajúceho rozhodovania a nie je určený na to, aby bez riadneho ľudského preskúmania nahradil alebo ovplyvnil predtým dokončené ľudské posúdenie alebo (iv) systém AI určený na vykonávanie prípravnej úlohy v oblasti využitia vysokorizikovej AI na účely presadzovania práva (pozri čl. 6 ods. 3),

- používanie vysokorizikového systému AI v trestnom konaní musí byť povolené (upravené) podľa právnych predpisov Európskej únie (aktuálne žiadny právny akt Európskej únie neustanovuje konkrétny postup orgánu verejnej moci pri používaní vysokorizikovej AI v trestnom konaní, napríklad pri hodnotení dôkazov v priebehu vyšetrovania alebo stíhania trestných činov alebo pri aplikácii zákonných znakov skutkových podstát najmä trestných činov uvedených v prílohe II vo vzťahu ku skutkovým okolnostiam) alebo právnych predpisov členských štátov(slovenský Trestný poriadok, najmä v ustanoveniach § 2 ods. 12 a § 119 ods. 3 neupravuje možnosť a ani postup pri používaní AI na účely získania dôkazného prostriedku a následne na účely hodnotenia získaného dôkazu) - ide o legislatívnu podmienku sine qua non,

- používanie vysokorizikového systému AI v trestnom konaní je možné len vtedy, ak sú splnené objektívne (technické) podmienky ustanovené v čl. 8 až 15,

- používanie vysokorizikového systému AI v trestnom konaní je možné len vtedy, ak subjekt nasadzujúci do používania taký systém spĺňa podmienky ustanovené v čl. 26 a ide o systém registrovaný v databáze Európskej únie,

- používanie vysokorizikového systému AI v trestnom konaní je možné len vtedy, ak systém spĺňa podmienky dôveryhodnosti, etickosti a transparentnosti,

3. napriek všeobecnej platnosti, záväznosti a priamej uplatniteľnosti aktu o umelej inteligencii v Slovenskej republike nie je aktuálne možné (dovolené), aby prokuratúra Slovenskej republiky používala systémy AI v trestnom konaní, a to z dôvodu absencie splnenia vyššie uvedených obligatórnych podmienok,

4. prokuratúra Slovenskej republiky nemá vytvorené externé ani interné legislatívne podmienky na používanie systémov AI na účely trestného konania,

5. prokuratúra Slovenskej republiky nespĺňa objektívne podmienky na nasadenie systémov AI na ich používanie v trestnom konaní,

6. prokuratúra Slovenskej republiky nedisponuje informáciami o vyvinutí takých systémov AI, ktoré by spĺňali technické podmienky a registračné podmienky na ich používanie v trestnom konaní,

7. na základe aktuálnych vedecko-technických poznatkov by na prokuratúre Slovenskej republiky bolo možné nasadiť len také systémy AI, ktoré sú z hľadiska druhu slabou (úzkou, špecifickou alebo obmedzenou) AI a sú vyvinuté ako generatívna AI [za generatívnu AI je potrebné považovať také systémy AI, ktoré sú po zadaní textového pokynu používateľom určené na generovanie (vytvorenie) nového obsahu (výstupu) vo forme písaného textu, zvuku, obrázkov, zdrojového kódu alebo obrazovo-zvukového záznamu, pričom vygenerovaný výstup je jedinečný]; k používaniu takýchto systémov AI by bolo potrebné pozitívne stanovisko Úradu na ochranu osobných údajov a Stálej komisie pre etiku a reguláciu umelej inteligencie (CERAI),

8. prokuratúra Slovenskej republiky preferuje centrálne (spoločné, súčasné) používanie systémov AI v trestnom konaní všetkými orgánmi verejnej moci, ktoré tvoria justičný systém v Slovenskej republike, vrátane zástupcov právnických povolaní participujúcich na tomto systéme,

9. prokuratúra Slovenskej republiky na základe informácií a poznatkov z aplikačnej praxe o používaní systémov AI

- na vytvorenie „deep fake“ obsahu na účely páchania trestnej činnosti,

- v zariadeniach umožňujúcich diaľkovú biometrickú identifikáciu osoby v reálnom čase vo verejne prístupných priestoroch na účely lokalizácie alebo identifikácie osoby podozrivej zo spáchania trestného činu a následného vedenia vyšetrovania trestného činu alebo výkonu trestnej sankcie za trestné činy uvedené v prílohe II aktu o umelej inteligencii [ide o taxatívny výpočet trestných činov – terorizmus, obchodovanie s ľuďmi, sexuálne vykorisťovanie detí a detská pornografia, nedovolené obchodovanie s omamnými látkami alebo psychotropnými látkami, nedovolené obchodovanie so zbraňami, strelivom alebo s výbušninami, vražda, ťažká ujma na zdraví, nedovolené obchodovanie s ľudskými orgánmi alebo tkanivami, nedovolené obchodovanie s jadrovými materiálmi alebo rádioaktívnymi materiálmi, únos, obmedzovanie osobnej slobody, branie rukojemníka, nezákonné ovládnutie lietadla alebo plavidla, znásilnenie, trestné činy proti životnému prostrediu, organizovaná alebo ozbrojená lúpež, sabotáž, trestné činy podliehajúce právomoci Medzinárodného trestného súdu (ICC) a účasť v zločineckej organizácii zapojenej do jedného alebo viacerých uvedených trestných činov], za ktoré možno v dotknutom členskom štáte uložiť trest odňatia slobody alebo ochranné opatrenie obmedzujúce slobodu s hornou hranicou trestnej sadzby najmenej štyri roky,

konštatuje absenciu znalcov v odbore elektrotechnika alebo v odbore kriminalistika zapísaných v zozname vedenom Ministerstvom spravodlivosti Slovenskej republiky, ktorí by sa špecializovali na AI a jej používanie [napríklad v odvetví počítačové programy (software) alebo v odvetví kriminalistická informatika nie je v zozname zapísaný žiadny znalec na AI a jej používanie] – znalecký posudok by v tomto prípade mal význam pre posúdenie vierohodnosti (pravdivosti a spoľahlivosti) zákonným spôsobom získaného dôkazného prostriedku (veci obsahujúcej „deep fake“ alebo veci obsahujúcej softvér na diaľkovú biometrickú identifikáciu osoby v reálnom čase vo verejne prístupných priestoroch) a prípustnosti získaného dôkazu na účely trestného konania,

10. prokuratúra Slovenskej republiky v súvislosti s budúcim používaním systémov AI v trestnom konaní považuje zachovanie ľudskej kontroly nad týmito systémami za zásadné pre to, aby táto technológia slúžila verejnému záujmu, chránila základné práva a slobody a podporovala spravodlivosť a rovnosť; ľudská kontrola systémov AI je nevyhnutná pre interpretáciu výsledkov činnosti týchto systémov a pre morálny úsudok vo vzťahu k prijatým rozhodnutiam.

B. Relevantné aspekty používania AI v práve pro futuro:

1. etika a zodpovednosť - pri používaní AI je nevyhnutné rešpektovať súkromie a garantovať jeho ochranu, garantovať bezpečnosť informácií a konať opatrne a transparentne,

2. regulácia AI – vytvorenie normatívnych regulačných aktov, ktoré sa musia pri používaní AI dodržiavať,

3. erudícia a odborná príprava na používanie AI.

Budúce používanie systémov AI v trestnom konaní musí byť determinované základnou zásadou, a to že tieto systémy môžu slúžiť len ako podporný (pomocný) nástroj pre orgány verejnej moci a akékoľvek rozhodnutie nimi vydané v trestnom konaní, musí byť výsledkom ľudskej činnosti a prejavom ľudskej autonómie.

C. Námety na diskusiu:

1. Aké systémy AI sa aktuálne používajú v justičných systémoch štátov V4, najmä na prokuratúre (štátnom zastupiteľstve)?

2. Aké sú legislatívne podmienky na používanie týchto systémov AI?

3. Akým spôsobom sa pri používaní systémov AI zabezpečuje ochrana základných práv a slobôd a splnenie podmienok dôveryhodnosti, etickosti a transparentnosti takéhoto postupu?

4. Do pôsobnosti akých orgánov verejnej moci v ostatných štátoch V4 patrí nasadzovanie systémov AI a kontrola ich používania?

5. Aký je aktuálny stav implementačného procesu v ostatných štátoch V4 vo vzťahu k aktu o umelej inteligencii?

6. Aké sú pozitíva a negatíva (riziká) v prípade použitia systémov AI pro futuro na účely analýzy a hodnotenia dôkazov v trestnom konaní?

Aktuálne vyvinuté systémy AI nie je možné použiť na analýzu a hodnotenie dôkazov v trestnom konaní.

Medzi pozitíva systémov AI použitých pri posudzovaní dôkazov je možné zaradiť:

1. Rýchlosť a efektivita spracovania dôkazov – systémy AI dokážu spracovať veľké množstvo rôznorodých dôkazov (písané texty, obrazové záznamy, obrazovo-zvukové záznamy, zvukové záznamy alebo iné digitálne stopy) rýchlejšie ako človek. Prokurátor môže získať prehľad o relevantných dôkazoch a skutkových faktoch v kratšom čase, čo môže skrátiť celkovú dobu trestného konania.

2. Objektívna analýza dát - systémy AI môžu minimalizovať ľudské chyby alebo nevedomé predsudky pri hodnotení dôkazov, čo umožňuje spravodlivejšie posúdeniu skutkového stavu.

3. Identifikácia vzorcov a súvislostí – systémy AI dokážu odhaliť vzťahy a vzory v informáciách, ktoré by mohli ľudské schopnosti prehliadnuť, napríklad ide o prepojenia medzi viacerými podozrivými osobami a nimi páchanej trestnej činnosti.

4. Podpora rozhodovania - prokurátor môže využiť výsledky použitia AI ako podklad pre prijatie rozhodnutia, čo môže zvýšiť kvalitu argumentácie a pravdepodobnosť úspechu v konaní.

Medzi negatíva (riziká) systémov AI použitých pri posudzovaní dôkazov je možné zaradiť:

1. Nepriehľadnosť algoritmov tvoriacich systém AI - viaceré systémy AI sú vyvinuté na základe zložitých modelov, ktoré môžu byť pre ich používateľa (prokurátora) ťažko pochopiteľné, čo sťažuje odhalenie prípadných chýb alebo predsudkov v procese ich vývinu.

2. Závislosť systémov AI na kvalite vstupných dát a informácií - pri používaní systémov AI platí všeobecná zásada, podľa ktorej ak sú dáta a informácie, na ktorých sú systémy AI trénované, neúplné alebo zaujaté, systémy AI môžu nesprávne interpretovať dôkazy alebo vynechať dôležité aspekty prípadu.

3. Etické a právne dilemy – používanie systémov AI na automatizované vyhľadávanie a analýzu dokumentov alebo informácií môže viesť k zníženiu individuálnej zodpovednosti a k riziku porušenia práva na spravodlivý proces, ak by sa systémy AI používali bez ľudskej kontroly.


 

Diskusia

 

Najčítanejšie články

Daňové trestné činy - niektoré aplikačné problémy

 vý­ťah z pred­náš­ky us­ku­toč­ne­nej dňa 09.05.2013 v Om­še­ní

 
Trestný čin ohovárania vs. prípustná (dovolená) kritika

 člá­nok pri­ná­ša ana­lý­zu zna­kov pre­či­nu oho­vá­ra­nia pod­ľa § 373 ods. 1 Tr. zák. a ve­nu­je po­zor­nosť aj prob­le­ma­ti­ke, do akej mie­ry je prí­pus­tná kri­ti­ka naj­mä ve­rej­ne čin­ných osôb.

 
Zákonnosť dôkazov a procesu dokazovania trestných činov s drogovým prvkom (z pohľadu obhajoby)

 cie­ľom člán­ku bo­lo pou­ká­zať na ma­név­ro­va­cí pries­tor ob­ha­jo­by pri vý­ko­ne ob­ha­jo­by osôb ob­vi­ne­ných z tres­tných či­nov naj­mä s dro­go­vým pr­vkom.

 
   
 
Mapa stránky   |   O nás   |   Kontakt Powered by Cyclone3 XUL CMS of Comsultia